id
stringlengths
3
7
title
stringlengths
1
87
paragraph
stringlengths
91
135k
2_0
Geografía de Andorra
El Principado de Andorra (nombre local, Principat d'Andorra) es un estado de la Europa meridional, situado en la cordillera de los Pirineos orientales. Limita con España al sur y con Francia al norte. Geografía física Es un estado sin litoral, en el que se encuentran importantes cruces de caminos de los Pirineos. Relieve La superficie de Andorra es de 468km². Está en la vertiente meridional de los Pirineos. Es una región de escarpados picos montañosos y estrechos valles por donde fluyen numerosos cursos de agua. Sus cumbres de materiales paleozoicos, en 65 casos por encima de los El puerto de Envalira llega a los La montaña más alta es el pico de Comapedrosa que, con una altitud de Su territorio se divide básicamente en tres valles con forma de Y: el valle (vall en catalán) del Valira del Este, el valle del Valira del Norte que se unen, luego pasan por Andorra la Vieja y atraviesan un tercer valle, el del río Valira, que discurre hacia el sur, donde se unirá al Segre. Ríos y lagos Por los valles de Andorra fluyen numerosos cursos de agua que se unen para formar el río Valira. La cuenca del Valira tiene la forma de Y, con sus dos afluentes más: el Valira del Norte (Valira del Nord) y el Valira del Este (Valira d’Orient). El Valira del Norte nace en los lagos de Tristaina, tiene un recorrido de 14km y pasa por la ciudad de Ordino y La Massana hasta que llega a Las Escaldas-Engordany, donde se une al Valira del Este. Este segundo afluente del Valira nace en la parte más oriental, tiene un recorrido de 23km y pasa por las ciudades de Canillo y Encamp antes de llegar a la ciudad de Las Escaldas-Engordany. Juntos forman el Gran Valira, que recorre 11,6km. Su caudal anual medio es de 13m³ cúbicos por segundo. Discurre hacia el sur y acaba desembocando en el río Segre que, a su vez, es afluente del Ebro. Por todo el paisaje de Andorra se encuentran más de sesenta lagos de montaña propios de todo el Pirineo. Los más representativos son el lago de Juclar, cuya superficie es la más extensa de todos los lagos del Principado con 21 hectáreas, y que, durante la época estival y por la consecuente falta de agua, parece como si fueran tres lagos diferentes: el lago de l'Illa con 13 hectáreas, el estanque de Engolasters (lago artificial) con 7 hectáreas y los tres lagos de Tristaina. Clima Andorra cuenta con un clima mediterráneo de alta montaña en el que las temperaturas en invierno son frías y en verano, suaves. Se producen variaciones en el clima dependiendo de la altitud y la orientación, pues por esa orientación montañosa hay grandes oscilaciones térmicas. Los valles tienen un clima que es similar al clima templado de los vecinos de Andorra, pero debido a su mayor altitud, los inviernos tienden a ser más severos, la humedad inferior y los veranos ligeramente más frescos. Las regiones por encima de la línea alpina de los árboles, a alrededor de 2100–2400 msnm tienen un clima y praderas alpinos. Las temperaturas medias diarias máxima y mínima en Las Escaldas-Engordany son, respectivamente, 28 °C y 15 °C en julio y 11 °C y -2 °C en enero. Puede descender hasta 10 grados bajo cero en invierno y subir hasta los 33 °C en verano. La temperatura media anual varía de 11 °C en San Julián de Loria en el sur, a 8 °C en La Massana en el centro, y de 2 °C en Arcalís en el norte. El principado tiene un porcentaje muy alto de días soleados. Hay, de media, 300 días al año soleados. La insolación álgida diaria media varía de 1.150 W/m2 en junio a 280 W/m² en diciembre. El clima es seco. La precipitación media anual es de 1071,9 mm para todo el país, pero varía según la parte del territorio, siendo mayor con la altitud y de sur a norte. La parroquia más seca del país es San Julián de Loria (800 mm al año) en el sur, y la más lluviosa es Canillo (1100 mm al año) en el norte. Las precipitaciones anuales pueden superar los 1220 mm en las zonas montañosas más altas. Los meses más secos tienden a ser enero y febrero, y los más lluviosos, mayo, junio y noviembre. En los meses de verano hay pocas lluvias, pero pueden ser muy intensas debido a que se asocian a tormentas. Al atardecer es cuando hay más precipitaciones salvo en invierno que son, sobre todo, de nieve. La nieve cubre completamente los valles septentrionales durante varios meses. Esas precipitaciones moderadas permiten cultivos en el verano. Temperaturas y precipitaciones en Andorra Fuente: "Tablas de Clima" de Andorra, en colonialvoyage.com. Medio ambiente En Andorra se encuentra la ecorregión bosque de los Pirineos, que forma parte del bioma "Bosque templado de frondosas". Hay grandes extensiones boscosas de pinos y abedules debido al clima mediterráneo de alta montaña que tiene el país. Los bosques ocupan 2/5 del territorio, según tres pisos altitudinales: hasta los 1200 msnm, encinas y robles; hasta 1600-1700 msnm predomina el pino silvestre; y hasta 2200-2300 msnm abunda el pino negro, sustituido en las cumbres por los prados alpinos. La Massana mantiene una de las masas forestales más importantes de Andorra (Bosc D'Arinsal). En el 2004, el valle de Madriu-Perafita-Claror fue declarado Patrimonio de la Humanidad por la Unesco. Además, tiene dos espacios protegidos como reserva de caza, Enclar (2500 hectáreas) y Xixerella (750 ha). Geografía humana La población es de 83.888 habitantes (est. julio de 2009), lo que da una densidad de población de 179,25 hab/km². La población urbana es el 89% del total (2008), concentrándose en las poblaciones de Andorra la Vieja y Las Escaldas-Engordany, donde se desarrollan las principales actividades económicas del país. El resto de la población se encuentra dispersa en el medio rural. En cuanto a los grupos étnicos el principal es el español 43%, al que siguen los andorranos 33%, portugueses 11%, franceses 7% y otros 6% (1998). El idioma oficial es el catalán, aunque se hablan también castellano, francés y portugués. La religión predominante es el catolicismo. Religión: catolicismo. La capital es Andorra la Vieja que tiene 24.574 habitantes (2007) y es la sede del gobierno. Le siguen en población Les Escaldes, Encamp, San Julián de Loria y La Massana. Andorra está dividida en siete territorios llamados parroquias. Son meramente administrativas sin autonomía propia; a su vez, tienen divisiones menores. Son: Canillo, Encamp, Ordino, La Massana, Andorra la Vieja, San Julián de Loria y Las Escaldas-Engordany Geografía económica La actividad humana se centra en el valle transversal noreste-suroeste, que a partir del Puerto de Envalira (2.407 m) desciende hasta los 840 m, cuando el río Valira entra en España. Los recursos naturales de Andorra se concentran en la energía hidroeléctrica, agua mineral, madera, mineral ferroso y plomo. La tierra arable representa el 2,13% del uso de la tierra. A cosechas permanentes se dedica 0% y otros 97,87% (2005). La central hidroeléctrica de Les Escaldes proporciona energía para Andorra y el excedente se exporta a Francia y España. La agricultura emplea al 0,3% de la población activa, la industria el 20,8% y los servicios el 79% (2007). No hay datos de la composición del PIB por sector. Pero se calcula que el turismo, el pilar principal de la pequeña y adinerada economía de Andorra, supone más del 80%. Se calcula que al año la visitan unos 2 millones de turistas, atraídos por su estatus de tienda libre de impuestos y por sus centros turísticos de invierno y de verano. La ventaja comparativa de Andorra ha disminuido recientemente conforme las economías de las vecinas Francia y España se han abierto, proporcionando una mayor disponibilidad de productos de consumo y tarifas aduaneras menores. El sector bancario, con su estatus parcial de paraíso fiscal, también contribuye sustancialmente a la economía. La producción agrícola es limitada, pues solo el 2% de la tierra puede ararse. Produce pequeñas cantidades de centeno, trigo, cebada, avena y verduras; la mayor parte de la comida debe importarse. La principal actividad ganadera es la cría de oveja. La principal industria es el turismo, en particular el de la práctica de deportes de invierno, la cría de ganado, la madera, la banca, el tabaco (cigarrillos y puros), así como muebles. Tiene 320 km de carreteras (2008). No hay vías férreas ni fluviales. Véase también Geografía Andorra Referencias "Europe :: ANDORRA" , CIA - The World Factbook (en inglés) Notas Enlaces externos Página del Gobierno de Andorra (en catalán) Portal de información sobre Andorra bn:অ্যান্ডোরা#ভূগোল
6_0
Astronomía galáctica
Se denomina astronomía galáctica a la investigación astronómica de nuestra galaxia, la Vía Láctea. La diferencia entre astronomía galáctica y astronomía extragaláctica solo se empezó a hacer a principios del siglo pasado, cuando las observaciones de Edwin Hubble mostraron sin lugar a dudas que la nebulosa de Andrómeda era una galaxia similar a la nuestra, y a una considerable distancia de ella. Los objetos de interés en nuestra galaxia son muchos, incluyendo estrellas, nubes interestelares —-que es donde la formación estelar se realiza—-, nuestro centro galáctico —-que estamos casi seguros posee un agujero negro—-, etc. Véase también Galaxia Astrofísica galáctica Disciplinas de la astronomía
19_0
Arqueología
La arqueología (del griego «ἀρχαίος» archaios, viejo o antiguo, y «λόγος» logos, ciencia o estudio) es la ciencia que estudia los cambios que se producen en las sociedades, desde las primeras agrupaciones de humanos hasta las actuales, a través de restos materiales dispersos en la geografía y conservados a través del tiempo. La arqueología puede considerarse tanto una ciencia social como una rama de las humanidades. Introducción En Estados Unidos, la arqueología es considerada un subcampo de la antropología, mientras que en Europa la arqueología a menudo se considera una disciplina en sí misma o un subcampo de otras disciplinas. Los arqueólogos estudian la prehistoria y la historia humana, desde el desarrollo de las primeras herramientas de piedra en Lomekwi en el África Oriental (Kenia) hace 3,3 millones de años hasta las últimas décadas. La arqueología es una mezcla de descubrimientos de restos materiales, su intervención con metodología rigurosa, junto al paciente trabajo de analistas científicos, y junto a la etapa de interpretación, que permite entender qué significaron los elementos descubiertos o explorados en la historia de la humanidad. En consecuencia, la arqueología es tanto una actividad física de campo como una búsqueda y exploración intelectual en el laboratorio. La mayoría de los primeros arqueólogos, que aplicaron la nueva disciplina a los estudios de los anticuarios, definieron la arqueología como el «estudio sistemático de restos materiales de la vida humana ya desaparecida». Otros arqueólogos enfatizaron aspectos psicológico-conductistas, y definieron la arqueología como «la reconstrucción de la vida de los pueblos antiguos». La disciplina implica topografía, excavación y, finalmente, el análisis post-excavación de los datos recopilados para aprender más sobre el pasado. En un amplio alcance, la arqueología se basa en la investigación interdisciplinaria. Se basa en Antropología, Historia, Historia del Arte, Estudios Clásicos, Etnología, Geografía, Geología, Historia de la literatura, Lingüística, Semiología, Crítica Textual, Física, Ciencia de la información, Química, Estadística, Paleoecología, Paleografía, Paleontología, Paleozoología y Paleobotánica. En Estados Unidos e Inglaterra, la arqueología ha sido siempre considerada como una disciplina perteneciente a la antropología. En efecto, mientras que la antropología se centra en el estudio de las culturas humanas, la arqueología se dedica al estudio de las manifestaciones materiales de dichas culturas. De este modo, en tanto que las antiguas generaciones de arqueólogos estudiaban un antiguo instrumento de cerámica como un elemento cronológico que ayudaría a ponerle una fecha a la cultura que era objeto de estudio, o simplemente como un objeto con un cierto valor estético, los antropólogos verían el mismo objeto como un instrumento que les serviría para comprender el pensamiento, los valores y la cultura de quien lo fabricó. Sin embargo, en la mayoría de los países, la arqueología ha estado más unida al estudio de la historia; en un principio como ciencia auxiliar de la historia del arte, y luego de la historiografía en general. Con el paso del tiempo se ha dejado de lado la tradicional visión de la arqueología como una de las ciencias auxiliares de la historia. En la actualidad, la arqueología es considerada una ciencia histórica autónoma; es decir sería una de las distintas disciplinas históricas. La arqueología es una de las principales ciencias del karst objeto de la espeleología, ocupándose de los yacimientos en cavidades subterráneas. Su principal objetivo es el estudio de los cambios en la organización social, así como la diversidad del comportamiento humano (económico, político, ideológico) en el pasado. Esto normalmente se logra a través del estudio de restos materiales en contextos espaciales y temporales definidos. Es por este motivo que la arqueología tiene, en primer lugar, un particular interés en la definición clara de secuencias temporales (divisiones diacrónicas), que se concretan en periodos; aunque hay arqueólogos que tienden a especializarse en un periodo, también prestan atención a sucesos previos y posteriores a ese periodo; a este patrón constituye una excepción la arqueología urbana, donde no resulta posible establecer divisiones temporales o diacrónicas. En segundo lugar, la arqueología centra su atención en marcos espaciales concretos (divisiones sincrónicas) tales como «regiones» o unidades políticas, «sub-regiones» o comunidades, y «áreas locales-yacimientos» o unidades domésticas y sus restos asociados (lugares de actividad, tumbas, entre otros). A diferencia de la Historia, secuencias temporales profundas y diversidad de espacios la proveen de variadas y complementarias escalas de análisis, rasgos únicos que le permiten reconstruir y dar explicaciones acerca de los cambios sociales y la diversidad de la organización social humana. La Arqueología ha cruzado un largo camino que inicia desde la búsqueda de ciudades antiguas o perdidas, identificación de grupos humanos con características particulares, hasta encontrar y coleccionar objetos desconocidos, permitiendo así la realización proyectos de investigación comprometidos con el entorno social y político de un país, debido a que por legislación el patrimonio arqueológico es considerado como una herencia del mismo, que se debe preservar y estudiar, generando modelos imaginarios que identifican diversos aspectos del pasado que serán proyectados en el futuro. La investigación arqueológica ha estado relacionada fundamentalmente a la Prehistoria y a la Antigüedad; sin embargo, durante las últimas décadas la metodología arqueológica se ha aplicado a etapas más recientes, como la Edad Media (arqueología medieval), la Edad Moderna (arqueología postmedieval) o el periodo industrial. En la actualidad, los arqueólogos dedican ocasionalmente su atención a materiales actuales, investigan residuos urbanos, con lo que está naciendo la denominada arqueología industrial. La arqueología se desarrolló a partir del Anticuario en Europa durante el , y desde entonces se ha convertido en una disciplina que se práctica en todo el mundo. Desde su desarrollo temprano, varias subdisciplinas específicas de la arqueología se han desarrollado, incluida la arqueología marítima, la arqueología feminista y la arqueoastronomía, y se han desarrollado numerosas técnicas científicas diferentes para ayudar a la investigación arqueológica. Sin embargo, hoy en día, los arqueólogos se enfrentan a muchos problemas, como el manejo de la pseudoarqueología, el saqueo de artefactos, la falta de interés público y la oposición a la excavación de restos humanos. Historia La arqueología surgió del antiguo estudio multidisciplinario conocido como anticuario. Los anticuarios estudiaron la historia con especial atención a los artefactos y manuscritos antiguos, así como a los sitios históricos. La arqueología establece que el estudio del hombre y la sociedad no es un hecho científico. Desde los años cincuenta, la arqueología en Norteamérica y en Europa occidental ha pasado desde una ortodoxia histórico-cultural hacia innovaciones teóricas. Las innovaciones teóricas produjeron el surgimiento de desacuerdos sobre los objetivos de la disciplina de la arqueología y cómo se debe acceder a ellos. Con el paso del tiempo los arqueólogos han abandonado su positivismo y han dudado sobre la objetividad de sus investigaciones, considerando los factores sociales y las soluciones convincentes como problemas. Algunos extremistas niegan que las interpretaciones ofrecidas por los arqueólogos sean un reflejo de los valores transitorios de las sociedades donde viven. La perspectiva histórica de las relaciones entre la arqueología y el contexto social aborda un modo comparativo donde surgen problemas como la subjetividad, la objetividad y la acumulación de conocimiento. En los últimos años los arqueólogos están de acuerdo con que «ningún problema histórico debería ser tratado sin estudiar antes... la historia del pensamiento histórico sobre él», cita dicha por el filósofo R. G. Collingwood. La investigación histórica sobre la interpretación arqueológica se ha multiplicado y adoptado a metodologías más sofisticadas. Michael Schiffer afirma que hay que exponer y articular las teorías actuales, y las licenciaturas deberían dejar de ser «historias del pensamiento». Tanto la veracidad como la falsedad de las formulaciones teóricas son independientes de las influencias sociales y de la historia, y están determinadas por la aplicación de procedimientos de evaluación. Siguiendo esta idea, tanto la historia de la arqueología como la filosofía están desconectadas, y el análisis histórico es el elemento que observa estas posiciones. Se puede distinguir entre un diálogo interno, donde los arqueólogos desarrollan métodos para inferir en el comportamiento humano a través de los datos arqueológicos, y un diálogo externo, donde se utilizan los hallazgos para hacer alusión a los problemas sobre dicho comportamiento y la historia humana. El diálogo interno trata los rasgos de la arqueología como disciplina, y el diálogo externo contribuye a la participación de la arqueología en las ciencias sociales. La reacción del público ante los hallazgos arqueológicos señala la necesidad de contemplar la historia de la arqueología a través de un amplio contexto social. La imagen más popular que muestra la misma es la de una disciplina esotérica sin ninguna relevancia en la actualidad. En ocasiones los arqueólogos son descritos como «seniles casanovas de la ciencia que se mueven entre los montones de basura de la antigüedad», aunque en los últimos doscientos años se ha despertado el interés por esta rama, sobresaliendo autores como Austen Layard en Nimrud o Heinrich Schliemann en Troya, y descubrimientos como la tumba de Tutankamon, el Palacio de Minos, el ejército de terracotas del emperador chino Qin Shihuangdi y los fósiles de homínidos en el África Oriental de hace millones de años. Durante la segunda mitad del la arqueología recibió apoyo, debatiéndose entre el evolucionismo y el libro del Génesis. Las interpretaciones históricas son subjetivas, y debido a la abundancia de estas, en muchas ocasiones se manipula. Si la interpretación histórica es una forma de creación de mitos, estos ayudan a guiar a la acción pública y constituyen un sustituto para el instinto. Según este punto de vista, los mitos están sujetos a la selección natural y pueden aproximarse a la realidad, sin embargo, dicha realidad es endeble acerca de la objetividad de las interpretaciones históricas. El enfoque histórico de la historia de la arqueología examina entre la interpretación arqueológica y el medio social-cultural. La perspectiva temporal proporciona distinciones entre la arqueología y la sociedad y permite identificar factores mediante la observación. Aproximaciones a la historia de la arqueología Con el estudio de la historia de la arqueología se produjeron numerosos desacuerdos sobre la naturaleza y el significado de la misma. G. R. Willey y J. A. Sabloff distinguieron cuatro periodos sucesivos en su History of American Archaeology (1974, 1980): especulativo, clasificatorio-descriptivo, clasificatorio-histórico y explicativo. Esto implica que en el hemisferio occidental, la arqueología se centra en la descripción y la clasificación. Clasificando los datos en relevantes o irrelevantes, como ocurre también en el periodo clasificatorio-descriptivo, implica la existencia de un marco teórico. También puede sostenerse que el hecho más simple no puede constituirse independientemente de un contexto teórico. En el pasado, estos marcos teóricos no lo formulaban los arqueólogos, y actualmente es la arqueología norteamericana la que elabora propuestas teóricas. En el pasado los arqueólogos emplearon teorías, pero ha sido en la actualidad cuando esas teorías han adquirido un paradigma de investigación. La comunidad científica mantiene esta tradición, y se encarga de divulgarlo en libros de texto y revistas científicas. A partir de entonces la arqueología se definió como una «indisciplinada disciplina empírica» y sugirió que su desarrollo teórico se considere en un estado preparadigmático. Las propuestas que son reconocidas internacionalmente son las únicas que se pueden calificar como paradigma. Los estudios de las primeras fases del desarrollo arqueológico revelan formulaciones más globales y consistentes, para lo que se necesita un estudio que respete el pasado y juzgue el trabajo según el periodo. Algunos arqueólogos mezclan la idea de Kuhn con una visión evolucionista. Mantienen que las fases sucesivas del desarrollo de la teoría arqueológica poseen una consistencia interna suficiente como para ser calificadas de paradigmas, y que la sustitución de un paradigma por otro constituye una revolución científica. A raíz de esta visión, innovadores como Christian Thomsen, Oscar Montelius, Gordon Childe y Lewis Binford encontraron errores y formaron nuevos paradigmas que cambiaron la dirección de la investigación arqueológica y determinaron qué tipo de problemas eran importantes o no. Estudio arqueológico Prospección Excavación Dentro de las excavaciones arqueológicas podemos observar diversos tipos: las de urgencia, las de investigación y las de patrimonio. Las excavaciones de urgencia están condicionadas por la transformación del espacio. Esta transformación va ligada a la construcción de infraestructuras o edificios. Esto exige documentar los restos ya que el sitio va a ser destruido por la construcción. Este tipo las pagan las constructoras públicas o privadas que van a modificar el espacio y se realiza un Estudio de Impacto Arqueológico. Las excavaciones de investigación se realizan para descubrir nuevos datos que nos ayudan a cubrir lagunas de información concretas que hay en la Historia. Las de patrimonio cultural se centran en el desarrollo estratégico de actividades culturales (turismo) y el aporte de interés a ciertos puntos de atracción del territorio. La arqueología es una ciencia que permite registrar a partir de sus evidencias materiales la evolución de la actividad humana, es decir, en creación, en tecnología y ciencia. Para poder excavar hay que tener el permiso de la autoridad correspondiente. Existe un registro arqueológico de las excavaciones y las autoridades son las que exigen una serie de condiciones para la excavación de los yacimientos: el lugar donde se han de guardar los restos, el director de la excavación, las fechas, el derecho a inspecciones, la elaboración de un libro diario donde se recoja todo lo relacionado con la excavación. Una vez finalizada la excavación se ha de elaborar un inventario de materiales para el ingreso en el museo y una memoria preliminar para la autoridad correspondiente analizando los resultados de la excavación. Trabajo de laboratorio Con los datos obtenidos en la excavación, se deben analizar los restos obtenidos exhaustivamente. Para ello se realizan las tareas de procesado en el laboratorio. En primer lugar, los restos se lavan y consolidan (en caso de ser necesario) evitando deteriorar los materiales. Hay que tener cuidado al lavar la cerámica pintada, para no deteriorar su pigmentación. Los huesos son higroscópicos, por lo que no es bueno lavarlos con agua, sino con un pincel o una esponja en seco. Es conveniente lavar en seco y cuidadosamente los estucos, yesos y otros materiales frágiles. Después se llevan a cabo las labores de siglado y registro, en donde cada pieza se sigla para poder identificarla en caso de confusión. Se sigla identificando el yacimiento y un número con la pieza exacta que se indica en el registro. Hecho esto, se ha de identificar la cerámica mediante tablas tipológicas. Cuando está hecho todo lo anterior, se ha de dibujar el material representativo para la publicación. Además, hay que analizar mediante otras técnicas (métodos de datación, medios químicos...). Métodos de datación absoluta Dendrocronología La dendrocronología (dendro: árbol; cronos: tiempo) es fundamental actualmente y necesaria para correlacionar los resultados del C-14. Se basa en los anillos de crecimiento de los árboles. Su conocimiento se remonta al Renacimiento ya que Leonardo da Vinci hizo un estudio sobre ellos. Sin embargo, fue en el cuando naturalistas como Duhamel y Buffon empezaron a realizar estudios sobre ello con árboles que habían sido cortados simultáneamente. Así, reconocieron que anualmente el árbol generaba un anillo más. Cuando llegaron al anillo 28 (contando desde fuera) observaron que en todas las especies este tenía un grosor más pequeño que denotaba un escaso crecimiento del árbol. Cada anillo tiene una parte más clara y otra más oscura debido a las diferencias en el ritmo de crecimiento según las estaciones. El anillo 28 corresponde al año 1709 en el que hubo unas heladas históricas. Fueron los primeros que relacionaron las características climáticas con la forma de los anillos. A principios del , el astrónomo estadounidense Douglass estudió si la radiación procedente de las manchas solares quedaban reflejadas en el crecimiento de los árboles. Para ello observó la evolución de los anillos intentando llegar lo más lejos posible. Así, utilizó especies de larga duración como las secuoyas o los pinos amarillos. Tras esto, se consiguió realizar secuencias de la morfología de los anillos de zonas geográficas concretas. Hoy en día en la mayor parte de Europa se tiene una secuencia maestra que se remonta a 3000 años e incluso en ciertos lugares hasta los 5000. Para la arqueología europea el material básico de construcción es la madera debido a su riqueza forestal por lo que se posee gran cantidad de material para estos estudios. Es el método más seguro que existe. Hay que tener cuidado con el factor "madera antigua" en donde se datan objetos hechos con partes interiores de un árbol (podría decirse que el corazón del árbol) pudiendo dar fechas alteradas de varios cientos de años. Carbono 14 El profesor Libby, que trabajaba en el Instituto de Estudios Nucleares de Chicago, desarrolló el método adecuadamente entre 1946-1949. El método alcanzó una popularidad inmediata y Libby obtuvo el premio Nobel en 1960. Este rápido reconocimiento se debe a dos grandes ventajas: el uso de muestras provenientes de cualquier lugar del mundo sin necesidad de un estudio previo, y que alcanza una cronología bastante amplia que llega hasta el 50.000 BP. Actúa sobre la materia orgánica. Los átomos de C14 están presentes en la atmósfera y se forman en la estratosfera a partir de la interacción de la radiación solar y el N. El C14 es absorbido por los seres vivos mediante la fotosíntesis de las plantas a través de la cadena alimenticia. No todos los seres vivos poseen la misma proporción de C14. Mientras un organismo está vivo conserva la misma proporción de C14 en el organismo; cuando muere disminuye de forma constante. El ritmo de pérdida se conoce como la vida media del C14 y es conocido. Libby calculó una vida media de 5568 años, pero actualmente se ha corregido en 5730. Esta cifra se refiere al tiempo que tarda un organismo en disminuir la proporción de C14 a la mitad. Así, al cabo de otros 5730 años se habrá reducido a la mitad del 50% que quedaba. Los laboratorios miden la cantidad de C14 que tiene la muestra. La diferencia entre esta cifra y la que debería tener se traduce en años. El trabajo de laboratorio es muy complejo ya que hay que limpiar el elemento con gran cuidado para no contaminar el exterior. Son necesarios unos gramos de materia prima para obtener la datación. Hoy día existe una opción, el C14AMS, que trabaja con cantidades muy pequeñas pero es más caro y laborioso. No todos los materiales suponen la misma facilidad de datación ya que las conchas son muy complicadas por su alto porcentaje de minerales. Por el contrario, los huesos se fechan muy bien aunque lo más fácil es la madera. Gracias a este método se puede datar el polen. Potasio-argón El método del potasio-argón es otro método de datación radiométrica, que permite datar rocas de origen volcánico asociadas a algunos de los restos fósiles y arqueológicos más antiguos del origen de la humanidad. En el momento de solidificación de una roca ígnea, el 40K que contiene comienza a desintegrarse, a un ritmo conocido, en 40Ar. La vida media del 40K es de 1,25Ma y la edad de la roca viene dada por la proporción 40K/40Ar que presenta actualmente. Este método, junto al similar del argón-argón (basado la proporción 40Ar/39Ar) ha dado muy buenos resultados en los yacimientos de origen sedimentario africanos, donde es frecuente la intercalación de rocas procedentes de episodios volcánicos, como por ejemplo en la secuencia estratigráfica de la Garganta de Olduvai. Otro ejemplo es el del yacimiento de Laetoli, donde una erupción volcánica dejó una capa de cenizas, fechada por K/Ar en 3,7Ma, sobre la que imprimieron sus huellas algunos animales y varios ejemplares de Australopithecus afarensis. Termoluminiscencia La termoluminiscencia se usa para cerámicas, pero en ocasiones se ha usado para elementos de sílex. El sistema consiste en que las partículas de arcilla van absorbiendo materiales radiactivos del suelo (uranio, potasio). Cuando esa arcilla es sometida a altas temperaturas la carga radioactiva queda a 0. A partir de ese momento vuelve a empezar a cargarse. Se traslada al laboratorio el resto y en condiciones controladas se vuelve a someter al calor y unas máquinas miden la cantidad de carga que se desprende y que había acumulado la arcilla. Cuanto mayor sea la carga radioactiva, mayor será su antigüedad. El sistema se completa analizado la carga de ese estrato para ver si el estrato ha fomentado la carga, ya que el ritmo de carga puede depender del estrato. Tras el proceso, el material queda completamente destruido. Paleomagnetismo Se basa en el hecho de que la polaridad magnética de la Tierra no es estática: los polos Norte y Sur magnéticos se invierten cada cierto tiempo por causas aún poco conocidas. No se presentan pautas o ciclos periódicos. Estos cambios de polaridad quedan reflejados en las rocas de origen ígneo y en algunos estratos sedimentarios, en los que las partículas minerales magnéticas quedan orientadas según la posición de los polos magnéticos en el momento de su formación, a modo de "brújulas fosilizadas". El último gran cambio de polaridad (de sur a norte) se dio hace 780 milenios (Inversión magnética de Brunhes-Matuyama). El paleomagnetismo fue muy importante en la excavación de Atapuerca: en el sector de Gran Dolina, los estratos en los que se estaban sacando restos humanos de Homo antecessor (TD 6), se formaron en una época de polaridad inversa, por lo que son más antiguos de 780.000 años. Racemización de aminoácidos La racemización de aminoácidos es un método de datación química que consiste en la conversión de un compuesto L-aminoácido a un D-aminoácido o viceversa y permite datar muestras orgánicas hasta el Paleolítico Medio. Subdisciplinas arqueológicas La arqueología en el gran desarrollo teórico y metodológico de las últimas décadas, ha dado lugar a numerosas subdisciplinas de marcado carácter temático-conceptual: Arqueología de Campos de Batalla Recibe diversas denominaciones, tales como arqueología del conflicto, arqueología de los campos de batalla o arqueología de la guerra. Su objetivo es el estudio de los procesos bélicos a partir de los restos recuperados en los escenarios donde estos se desarrollaron; siendo la prospección arqueológica determinante para conocer aspectos de los hechos que sucedieron sobre el terreno. Arqueología histórica La arqueología histórica es la arqueología que estudia culturas con algunas formas de escrituras. En Inglaterra los arqueólogos descubrieron planos de pueblos medievales del , abandonados después de que se produjeran crisis, como es el caso de la peste negra. La arqueología, de la misma manera que se dedica al estudio de la antropología (arqueología antropológica), también se dedica al estudio de la historia (arqueología histórica). La arqueología histórica es la crónica de la humanidad desde los comienzos hasta hace unos tres millones de años, aunque las fuentes históricas comienzan más temprano, con el nacimiento del documento escrito en Asia Occidental en el , aunque en otros lugares, Australia por ejemplo, existió en . En ese sentido, la arqueología comprende los periodos y lugares donde existen dichos documentos e inscripciones. Sitios arqueológicos notables Arqueólogos históricos notables Etnoarqueología La etnoarqueología se trata del estudio de una comunidad humana viva a partir de la cultura material (aproximación arqueológica). En sus inicios se postuló como un modo de entender el registro arqueológico con analogías de referentes culturales actuales. En las corrientes posmodernas se concibe como una buena forma de obtener referentes inspiradores para elaborar las interpretaciones arqueológicas y construir narrativas enriquecedoras. Arqueología cognitiva La arqueología cognitiva es la rama de origen reciente que responde a la necesidad de estudiar las formas de pensamiento y las estructuras simbólicas del pasado a partir de los restos materiales hallados. Se formó principalmente para conocer las sociedades prehistóricas debido a la falta de fuentes escritas que aportaran información de estas; este nuevo enfoque "imaginativo" mezclado con métodos científicos de vanguardia fue uno de los instigadores de la Nueva Arqueología. Arqueología contextual Se preocupa por el contexto de un artefacto y de las asociaciones que hay entre varios objetos. También tienen en cuenta la cantidad de objetos idénticos que hay en un yacimiento y el lugar donde se encuentra. Por lo tanto, permite averiguar la función de un artefacto y la información sobre cómo influía en la sociedad. Arqueología darwinista Afirma que los procesos que llevan a la estabilidad y al cambio cultural son similares a los de la evolución biológica. La evolución cultural es el conjunto de modificaciones en la distribución de los atributos de las sociedades. También defiende que la cultura humana es consecuencia de un aprendizaje social a través del contacto con otros seres humanos. Arqueología de género Es el estudio del rol, acciones e ideologías que hay entre hombres y mujeres. Busca las diferencias entre el papel social de cada uno de ellos en distintas culturas. Se fija en las desigualdades biológicas y en las construcciones sociales que se transmiten a los humanos desde la infancia. Arqueología experimental La arqueología experimental representa la aplicación del método experimental para desarrollar procesos que han sido creados por la arqueología. Arqueología holística La arqueología holística engloba todos los aspectos de las sociedades humanas (ecología, economía, política, arte, ideología...) y los relaciona entre ellos. Sus principales fuentes provienen de otros tipos distintos de la misma disciplina: etnografía, etnohistoria y arqueología contextual. Arqueología del paisaje La arqueología del paisaje o arqueología espacial es un método por el cual se intenta conocer como era el medio en la antigüedad. Se hacen pequeños sondeos aleatorios de 2 x 2 en el ámbito circundante que se quiere estudiar y gracias a ello se saca información de la diversidad del medio y de las diferentes actividades que se practicaron en cada parte del medio. Arqueología de la arquitectura La arqueología de la arquitectura, también conocida como arqueología mural, arqueología arquitectónica o arquitectura arqueológica, es una rama de la arqueología que se dedica al estudio de los materiales arquitectónicos. Arqueometría La arqueometría es la incorporación de técnicas físico-químicas aplicadas al estudio arqueológico. Esta permite nuevas perspectivas a la investigación arqueológica. Dentro de estos estudios, resalta la caracterización de materiales, el estudio sobre composición y manipulación de elementos metalúrgicos, el análisis de contenido de recipientes arqueológicos, etc. Los estudios arqueométricos tienen como antecedente el análisis de la composición de los materiales arqueológicos encontrados como son los metales, los cristales, la Cerámica, los objetos, las rocas, entre otros, que datan del , estos estudios se desarrollaron en tres etapas básicamente: en la primera etapa se realizaron estudios de Rayos X y la fotografía área; la segunda etapa se identificó por el desarrollo de las principales técnicas de medición como la emisión óptica, el radiocarbono, la termoluminiscencia, la fluorescencia y la tercera etapa se caracterizó por el avance de las técnicas multielementales como la espectrometría de masas y la teledetección espacial. Paleoetnobotánica Tafonomía arqueológica La tafonomía es el estudio de la formación de yacimientos. Estudios osteológicos Zooarqueología La zooarqueología es el estudio de los restos antiguos de animales. Con esta disciplina científica se pueden identificar las especies existentes en un yacimiento arqueológico, pudiendo dar un patrón alimenticio de la ocupación. La zooarqueología ha pasado por varias etapas hasta llegar a la situación actual donde existe diversidad en la productividad y un refinamiento en las diversas técnicas para inferir la Información sobre el pasado y la Historia de los animales. Durante los años setenta los trabajos se centraron hacia el reconocimiento de patrones de búsqueda en situaciones de registro zooarqueológico, culminando con la llegada del modelo epistemológico. En la década de los noventa se inicia con la publicación de artículos, síntesis y diversos volúmenes dedicados a esta ciencia y en menor medida a la Tafonomía, se observó un notable aumento en la difusión y en la importancia de esta disciplina. Antropología física (bioarqueología) La antropología física en su aplicación a la arqueología es un análisis de los restos óseos humanos, en aspectos biológicos del ser humano y de su relación con los aspectos históricos y culturales. En EE.UU. esta disciplina se denomina, desde 1976 bioarqueología. Su objetivo general es el estudio de la variación biológica humana en poblaciones modernas. Sin embargo, el estudio de la evolución de los mecanismos culturales y fisiológicos para amortiguar el estrés ambiental es fundamental para comprender nuestro éxito como especie, lo que nos permitió colonizar una amplia gama de nichos. Arqueología pública Si la arqueología intenta crear un nuevo conocimiento desde el estudio de la cultura material de sociedades pasadas, la arqueología pública trata de estudiar todas las relaciones entre esa Arqueología y la sociedad actual para así mejorar su entendimiento general y la coexistencia entre ambas. Arqueología genética y molecular La arqueogenética es un término acuñado por el arqueólogo británico Colin Renfrew, que se refiere a la aplicación de las técnicas de la genética de poblaciones para el estudio del pasado humano. Tipos de trabajo arqueológico Así como a otras de perfil metodológico-contextual: Arqueología aérea Arqueología subacuática Categorías cronoarqueológicas Asimismo existen delimitaciones cronoespaciales a nivel mundial, que delimitan una serie de grandes áreas culturales, cuyos estudios se configuran usualmente como subdisciplinas con cierta autonomía dentro de la ciencia arqueológica. Las más destacables serían: Arqueología americana Arqueología andina (véase también Arqueología del Perú) Arqueología argentina. Arqueología comparativa = Área Intermedia; Norte, Centro y Sur América Arqueología de sociedades complejas = Área Intermedia; Norte, Centro y Sur América Arqueología mesoamericana Arqueología de Egipto y de Próximo Oriente Arqueología egipcia (división que conforma junto a otros campos de estudio la Egiptología) Arqueología Acadia Arqueología Babilónica Arqueología bíblica Arqueología de Israel Arqueología fenicio-púnica Arqueología Hitita Asiriología Sumeriología Arqueología europea Arqueología clásica Arqueología europea Arqueología medieval Arqueología postmedieval Arqueología prehistórica Arqueología protohistórica Arqueología mundial Arqueología del conflicto Arqueología del pasado contemporáneo Arqueología industrial Revistas científicas de arqueología Cultura popular La mezcla del peligro y la labor detectivesca han convertido a la arqueología en un vehículo para escritores de ficción y cineastas, desde Agatha Christie con Asesinato en Mesopotamia hasta Steven Spielberg con Indiana Jones. Aunque estas imágenes se alejen de la realidad, captan la verdad esencial de que la arqueología es una búsqueda de conocimiento entre el presente y el pasado. Véase también Referencias Bibliografía Enlaces externos Portal de Arqueología NAyA Revista académica con gran cantidad de artículos y ponencias de congresos (en español) Experimental Archaeology, Archeoparagliding, Reconstructions (en inglés, alemán, polaco y ucraniano) North Pacific Prehistory, revista académica especializada en arqueología del nordeste asiático y América del Norte (en español, inglés y francés) Rupestreweb Publicación de arte rupestre (pinturas y petroglifos) de América latina. Arqueología Iberoamericana - Revista científica internacional de acceso abierto dedicada a la arqueología americana e ibérica. Disciplinas auxiliares de la Antropología Antropología Disciplinas auxiliares usadas en historia Ciencias históricas Helenismos
26_0
Albert Einstein
Albert Einstein (; Ulm, Imperio alemán, 14 de marzo de 1879-Princeton, Estados Unidos, 18 de abril de 1955) fue un físico alemán de origen judío, nacionalizado después suizo, austriaco y estadounidense. Se le considera el científico más importante, conocido y popular del . En 1905, cuando era un joven físico desconocido, empleado en la Oficina de Patentes de Berna, publicó su teoría de la relatividad especial. En ella incorporó, en un marco teórico simple fundamentado en postulados físicos sencillos, conceptos y fenómenos estudiados antes por Henri Poincaré y Hendrik Lorentz. Como una consecuencia lógica de esta teoría, dedujo la ecuación de la física más conocida a nivel popular: la equivalencia masa-energía, E=mc². Ese año, publicó otros trabajos que sentarían algunas de las bases de la física estadística y de la mecánica cuántica. En 1915, presentó la teoría de la relatividad general, en la que reformuló por completo el concepto de la gravedad. Una de las consecuencias fue el surgimiento del estudio científico del origen y la evolución del universo por la rama de la física denominada cosmología. En 1919, cuando las observaciones británicas de un eclipse solar confirmaron sus predicciones acerca de la curvatura de la luz, fue idolatrado por la prensa. Einstein se convirtió en un ícono popular de la ciencia mundialmente famoso, un privilegio al alcance de muy pocos científicos. Por sus explicaciones sobre el efecto fotoeléctrico y sus numerosas contribuciones a la física teórica, en 1921 obtuvo el Premio Nobel de Física y no por la Teoría de la Relatividad, pues el científico a quien se encomendó la tarea de evaluarla no la entendió, y temieron correr el riesgo de que luego se demostrase errónea. En esa época era aún considerada un tanto controvertida. Ante el ascenso del nazismo, Einstein abandonó Alemania en diciembre de 1932 con destino a Estados Unidos, donde se dedicó a la docencia en el Institute for Advanced Study. Se nacionalizó estadounidense en 1940. Durante sus últimos años trabajó por integrar en una misma teoría la fuerza gravitatoria y la electromagnética. Aunque es considerado por algunos como el «padre de la bomba atómica», abogó por el federalismo mundial, el internacionalismo, el pacifismo, el sionismo y el socialismo democrático, con una fuerte devoción por la libertad individual y la libertad de expresión. Fue proclamado «personaje del » y el más preeminente científico por la revista Time. Biografía Infancia Nació en la ciudad alemana de Ulm, cien kilómetros al este de Stuttgart, en el seno de una familia judía. Sus padres fueron Hermann Einstein y Pauline Koch. Hermann y Pauline se habían casado en 1876, cuando Hermann tenía casi veintinueve años y ella dieciocho. La familia de Pauline vivía cerca de Stuttgart, concretamente en la ciudad de Cannstatt; allí su padre, Julius Koch, explotaba con su hermano Heinrich un comercio muy próspero de cereales. Pauline tocaba el piano y le transmitió a su hijo su amor por la música, entre otras cualidades como su "perseverancia y paciencia". De su padre, Hermann, también heredó ciertos caracteres como la generosidad y la amabilidad que caracterizaron a Albert. En 1880 la familia se mudó a Múnich, donde se criaría durante catorce años, y su padre y el hermano de este, Jakob, quien influyó intelectualmente sobre Albert, fundaron en octubre una empresa dedicada a la instalación de agua y gas. Como el negocio marchaba bien, con el apoyo de toda la familia decidieron abrir un taller propio de aparatos eléctricos (Elektrotechnische Fabrik J. Einstein & Cie.), que suministraban a centrales eléctricas en Múnich-Schwabing, Varese y Susa en Italia, la que fracasaría tras endeudar a toda la familia. Esto causó un trauma no solo a Albert sino también al resto de la familia. A fin de saldar las deudas y financiar el traslado, el querido jardín de la casa de Múnich fue vendido a un promotor inmobiliario. Desde sus comienzos, demostró cierta dificultad para expresarse, pues no empezó a hablar hasta la edad de tres años, por lo que aparentaba poseer algún retardo que le provocaría algunos problemas. Al contrario que su hermana menor, Maya, que era más vivaracha y alegre, Albert era paciente y metódico y no le gustaba exhibirse. Solía evitar la compañía de otros infantes de su edad y a pesar de que, como niños, también tenían de vez en cuando sus diferencias, únicamente admitía a su hermana en sus soledades. Cursó sus estudios primarios en una escuela católica; desde 1888 asistió al instituto de segunda enseñanza Luitpold (que en 1965 recibiría el nombre de Gymasium Albert Einstein). Sacó buenas notas en general, no tanto en las asignaturas de idiomas, pero excelentes en las de ciencias naturales. Los libros de divulgación científica de Aaron Bernstein marcaron su interés y su futura carrera. Fue un período difícil que sobrellevaría gracias a las clases de violín (a partir de 1884) que le daría su madre (instrumento que le apasionaba y que continuó tocando el resto de sus días) y a la introducción al álgebra que le descubriría su tío Jakob. Su paso por el Gymnasium (instituto de bachillerato), sin embargo, no fue muy gratificante: la rigidez y la disciplina militar de los institutos de secundaria de la época de Otto von Bismarck le granjearon no pocas polémicas con los profesores: en el Luitpold Gymnasium las cosas llegaron a un punto crítico en 1894, cuando Einstein tenía quince años. Un nuevo profesor, el Dr. Joseph Degenhart, le dijo que «nunca conseguiría nada en la vida». Cuando Einstein le respondió que «no había cometido ningún delito», el profesor le respondió: «tu sola presencia aquí mina el respeto que me debe la clase». Su tío, Jakob Einstein, un ingeniero con gran inventiva e ideas, convenció al padre de Albert para que construyese una casa con un taller, en donde llevarían a cabo nuevos proyectos y experimentos tecnológicos de la época a modo de obtener unos beneficios, pero, debido a que los aparatos y artilugios que afinaban y fabricaban eran productos para el futuro, en el presente carecían de compradores y el negoció fracasó. El pequeño Albert, se crio motivado por las investigaciones que se realizaban en el taller y todos los aparatos que allí había. Además, su tío incentivó sus inquietudes científicas proporcionándole libros de ciencia. Según relata el propio Einstein en su autobiografía, de la lectura de estos libros de divulgación científica nacería un constante cuestionamiento de las afirmaciones de la religión; un librepensamiento decidido que fue asociado a otras formas de rechazo hacia el Estado y la autoridad. Un escepticismo poco común en aquella época, a decir del propio Einstein. El colegio no lo motivaba, y aunque era excelente en matemáticas y física, no se interesaba por las demás asignaturas. A los quince años, sin tutor ni guía, emprendió el estudio del cálculo infinitesimal. La idea, claramente infundada, de que era un mal estudiante proviene de los primeros biógrafos que escribieron sobre Einstein, que confundieron el sistema de calificación escolar de Suiza (un 6 en Suiza es la mejor calificación) con el alemán (un 6 es la peor nota). En 1894, la compañía Hermann sufría importantes dificultades económicas y los Einstein se mudaron de Múnich a Pavía (concretamente al Palazzo Cornazzani), en Italia, cerca de Milán. Albert permaneció en Múnich para terminar sus cursos antes de reunirse con su familia en Pavía, pero la separación duró poco tiempo: antes de obtener su título de bachiller decidió abandonar el Gymnasium. Sin consultarlo con sus padres, Albert se puso en contacto con un médico (el hermano mayor de Max Talmud, un estudiante de medicina que iba todos los viernes a comer a la casa de los padres de Einstein) para que certificara que padecía de agotamiento y necesitaba un tiempo sin asistir a la escuela, y convenció a un profesor para que certificara su excelencia en el campo de las matemáticas. Las autoridades de la escuela le dejaron ir. Justo después de las Navidades de 1894, Albert abandonó Múnich y se fue a Milán para reunirse con sus padres. Juventud Así, la familia Einstein intentó matricular a Albert en la Escuela Politécnica Federal de Zúrich pero, al no tener el título de bachiller, tuvo que presentarse a una prueba de acceso que suspendió a causa de una calificación deficiente en una asignatura de letras. Esto supuso que fuera rechazado inicialmente, pero el director del centro, impresionado por sus resultados en ciencias, le aconsejó que continuara sus estudios de bachiller y que obtuviera el título que le daría acceso directo al Politécnico. Su familia lo envió a Aarau para terminar sus estudios secundarios en la escuela cantonal de Argovia, a unos 50km al oeste de Zúrich, donde Einstein obtuvo el título de bachiller alemán en 1896, a la edad de dieciséis años. Ese mismo año renunció a su ciudadanía alemana, presuntamente para evitar el servicio militar, pasando a ser un apátrida. Inició los trámites para naturalizarse suizo. A fines de 1896, a la edad de diecisiete años, Einstein ingresó en la Escuela Politécnica Federal de Zúrich (Suiza), probablemente el centro más importante de la Europa central para estudiar ciencias fuera de Alemania, matriculándose en la Escuela de orientación matemática y científica, con la idea de estudiar física. Durante sus años en la políticamente vibrante Zúrich, descubrió la obra de diversos filósofos: Henri Poincaré, Baruch Spinoza, David Hume, Immanuel Kant, Karl Marx y Ernst Mach. También tomó contacto con el movimiento socialista a través de Friedrich Adler y con cierto pensamiento inconformista y revolucionario en el que mucho tuvo que ver su amigo de toda la vida Michele Besso. En octubre de 1896, conoció a Mileva Marić, una compañera de clase serbia, de talante feminista y radical, de la que se enamoró. En 1900, Albert y Mileva se graduaron en el Politécnico de Zúrich y en 1901, a la edad de veintidós años, consiguió la ciudadanía suiza. Durante este período discutía sus ideas científicas con un grupo de amigos cercanos, incluyendo a Mileva, con la cual tuvo en secreto una hija en enero de 1902, llamada Lieserl. Al día de hoy nadie sabe qué fue de la niña, asumiéndose que fue adoptada en la Serbia natal de Mileva, después de que ambos contrajeran matrimonio, el 6 de enero de 1903, en la ciudad de Berna. No obstante, esta teoría difícilmente puede demostrarse, ya que solo se dispone de pruebas circunstanciales. Los padres de Einstein siempre se opusieron al matrimonio, hasta que en 1902 su padre cayó enfermo de muerte y consintió. Mas su madre nunca se resignó al mismo. Se graduó en 1900, obteniendo el diploma de profesor de matemática y de física, pero no pudo encontrar trabajo en la Universidad, por lo que ejerció como tutor en Winterthur, Schaffhausen y Berna. Su compañero de clase Marcel Grossmann, un hombre que más adelante desempeñaría un papel fundamental en las matemáticas de la relatividad general, le ofreció un empleo fijo en la Oficina Federal de la Propiedad Intelectual de Suiza, en Berna, una oficina de patentes, donde trabajó de 1902 a 1909. Su personalidad le causó también problemas con el director de la Oficina, quien le enseñó a «expresarse correctamente». En esta época, Einstein se refería con amor a su mujer Mileva como «una persona que es mi igual y tan fuerte e independiente como yo». Abram Joffe, en su biografía de Einstein, argumenta que durante este periodo fue ayudado en sus investigaciones por Mileva. Esto se contradice con otros biógrafos como Ronald W. Clark, quien afirma que Einstein y Mileva llevaban una relación distante que le brindaba la soledad necesaria para concentrarse en su trabajo. En mayo de 1904, Einstein y Mileva tuvieron un hijo, al que llamaron Hans Albert Einstein. Ese mismo año consiguió un trabajo permanente en la Oficina de Patentes. Poco después finalizó su doctorado presentando una tesis titulada Una nueva determinación de las dimensiones moleculares, consistente en un trabajo de 17 folios que surgió de una conversación mantenida con Michele Besso, mientras se tomaban una taza de té; al azucarar Einstein el suyo, le preguntó a Besso: En 1905, redactó varios trabajos fundamentales sobre la física de pequeña y gran escala. En el primero de ellos explicaba el movimiento browniano, en el segundo el efecto fotoeléctrico y los dos restantes desarrollaban la relatividad especial y la equivalencia masa-energía. El primero de ellos le valió el grado de doctor por la Universidad de Zúrich en 1906, y su trabajo sobre el efecto fotoeléctrico le haría merecedor del Premio Nobel de Física en 1921, por sus trabajos sobre el movimiento browniano y su interpretación sobre el efecto fotoeléctrico. Estos artículos fueron enviados a la revista Annalen der Physik y son conocidos generalmente como los artículos del annus mirabilis («año milagroso»). Madurez En 1908, a la edad de veintinueve años, fue contratado en la Universidad de Berna, Suiza, como profesor y conferenciante (privatdozent). Einstein y Mileva tuvieron un nuevo hijo, Eduard, nacido el 28 de julio de 1910. Poco después la familia se mudó a Praga, donde Einstein obtuvo la plaza de professor de física teórica, el equivalente a catedrático, en la Universidad Alemana de Praga, debiendo adoptar la nacionalidad austríaca para poder acceder al cargo. En esta época trabajó estrechamente con Marcel Grossmann y Otto Stern. También comenzó a llamar al tiempo matemático «cuarta dimensión». En 1913, justo antes de la Primera Guerra Mundial, fue elegido miembro de la Academia Prusiana de Ciencias. Estableció su residencia en Berlín, donde permaneció durante diecisiete años. El emperador Guillermo le invitó a dirigir la sección de Física del Instituto Kaiser Wilhelm de Física. El 14 de febrero de 1919, a la edad de treinta y nueve años, se divorció de Mileva, después de un matrimonio de dieciséis años, y algunos meses después, el 2 de junio de 1919, se casó con una prima suya, Elsa Loewenthal, cuyo apellido de soltera era Einstein; Loewenthal era el apellido de su primer marido, Max Loewenthal. Elsa era tres años mayor que él y le había estado cuidando tras sufrir un fuerte estado de agotamiento. Einstein y Elsa no tuvieron hijos. El destino de la hija de Albert y Mileva, Lieserl, nacida antes de que sus padres se casaran o encontraran trabajo, es desconocido. De sus dos hijos, el primero, Hans Albert, se mudó a California, donde llegó a ser profesor universitario, aunque con poca interacción con su padre; el segundo, Eduard, sufría esquizofrenia y fue internado en 1932 en una institución para tratamiento de enfermedades mentales en Zúrich. Fue el primero de muchos ingresos. Einstein quería llevar a su hijo enfermo a Princeton, pero la embajada de Estados Unidos no lo admitió por sus malos antecedentes. Eduard falleció en el centro psiquiátrico en 1965. En Berlín en los años 1920, la fama de Einstein despertaba acaloradas discusiones. En los diarios conservadores se podían leer editoriales que atacaban su teoría. Se convocaban conferencias-espectáculo tratando de argumentar lo disparatada que resultaba la teoría especial de la relatividad. Incluso se le atacaba, en forma velada, no abiertamente, por su condición de judío. Su nombre figuraba, junto al de otros intelectuales alemanes, en las listas de personas consideradas «un peligro para el país» por el partido nazi. En el resto del mundo, la teoría de la relatividad era apasionadamente debatida en conferencias populares y textos. En Alemania, las expresiones de odio a los judíos alcanzaron niveles muy elevados. Varios físicos de ideología nazi, algunos tan notables como los premios Nobel de Física Johannes Stark y Philipp Lenard, intentaron desacreditar sus teorías. Otros físicos que enseñaban la teoría de la relatividad, como Werner Heisenberg, fueron vetados en sus intentos de acceder a puestos docentes. En 1923 visitó España, entablando relación con José Ortega y Gasset. Al desembarcar en Barcelona, y dadas las ideas socialistas que profesaba, aceptó una invitación para dar una conferencia en la sede de la CNT, donde entabló amistad con Ángel Pestaña. Preguntó qué significaban las siglas CNT (Confederación Nacional del Trabajo), y cuando lo comprendió, y dadas las ideas anarquistas del sindicato, propuso eliminar la palabra "Nacional", que en Alemania tenía connotaciones violentas. En su visita también conoció brevemente a Santiago Ramón y Cajal y adicionalmente recibió un homenaje del rey Alfonso XIII de España, quien lo nombra miembro de la Real Academia de Ciencias. Antes del ascenso del nazismo —Adolf Hitler llegó al poder como canciller el 30 de enero de 1933—, había dejado Alemania en diciembre de 1932 para zarpar inciertamente hacia Estados Unidos, país donde enseñó en el Institute for Advanced Study, agregando a su nacionalidad suiza la estadounidense en 1940, a la edad de sesenta y un años. Antes de decidirse por el exilio estadounidense, en 1933 el gobierno de la Segunda República española ofreció a Einstein incorporarse como investigador a la Universidad Central de Madrid. Medió en estas gestiones el entonces embajador en el Reino Unido, Ramón Pérez de Ayala, a iniciativa del ministro Fernando de los Ríos. Finalmente, dada la situación de inestabilidad política en Europa y el ascenso al poder de la CEDA en España, Einstein declinó la oferta. Ante la posibilidad de que el científico alemán aceptara el puesto, sectores de la derecha española mostraron su malestar y hubo algunas reacciones antisemitas. El diario católico El Debate (vinculado a la CEDA) publicó un editorial el 12 de abril (titulado Todo es relativo) donde se refería a Einstein como "el judío"; en otro artículo del mismo periódico se negaba que fuese una víctima de la persecución hitleriana y que su destierro fuera forzado: «El ministro socialista se ha apresurado a ofrecerle protección. Judaísmo y marxismo se identifican y confunden», se añadía. Einstein, en 1939 decide ejercer su influencia participando en cuestiones políticas que afectan al mundo. Redacta una célebre carta a Roosevelt, para promover el proyecto atómico e impedir que los «enemigos de la humanidad» lo hicieran antes: Durante sus últimos años, Einstein trabajó por integrar en una misma teoría las cuatro interacciones fundamentales, tarea aún inconclusa. Muerte El 16 de abril de 1955, Albert Einstein experimentó una hemorragia interna causada por la ruptura de un aneurisma de la aorta abdominal, que anteriormente había sido reforzada quirúrgicamente por el doctor Rudolph Nissen en 1948. Einstein rechazó la cirugía, diciendo: «Quiero irme cuando quiero. Es de mal gusto prolongar artificialmente la vida. He hecho mi parte, es hora de irse. Yo lo haré con elegancia». Murió en el Hospital de Princeton a primera hora del 18 de abril de 1955 a la edad de setenta y seis años. En la mesilla quedaba el borrador del discurso por el séptimo aniversario de la independencia de Israel, que jamás llegaría a pronunciar, y que empezaba así: «Hoy les hablo no como ciudadano estadounidense, ni tampoco como judío, sino como ser humano». Einstein no quiso tener un funeral rutilante, con la asistencia de dignatarios de todo el mundo. De acuerdo con su deseo, su cuerpo fue incinerado en la misma tarde, antes de que la mayor parte del mundo se enterara de la noticia. En el crematorio solo hubo doce personas, entre las cuales estuvo su hijo mayor. Sus cenizas fueron esparcidas en el río Delaware a fin de que el lugar de sus restos no se convirtiera en objeto de mórbida veneración. Pero hubo una parte de su cuerpo que no se quemó. Durante la autopsia, el patólogo del hospital Thomas Stoltz Harvey extrajo el cerebro de Einstein para conservarlo, sin el permiso de su familia, con la esperanza de que la neurociencia del futuro fuera capaz de descubrir lo que hizo a Einstein ser tan inteligente. Lo conservó durante varias décadas, hasta que finalmente lo devolvió a los laboratorios de Princeton cuando tenía más de ochenta años. Pensaba que el cerebro de Einstein «le revelaría los secretos de su genialidad y que así se haría famoso». Hasta ahora, el único dato científico medianamente interesante obtenido del estudio del cerebro es que una parte de él —la parte que, entre otras cosas, está relacionada con la capacidad matemática— es más grande que en otros cerebros. Son recientes y escasos los estudios detallados del cerebro de Einstein. En 1985, por ejemplo, la profesora Marian Diamond, de la Universidad de California en Berkeley, informó de un número de células gliales (que nutren a las neuronas) de superior calidad en áreas del hemisferio izquierdo, encargado del control de las habilidades matemáticas. En 1999, la neurocientífica Sandra Witelson informaba que el lóbulo parietal inferior de Einstein, un área relacionada con el razonamiento matemático, era un 15% más ancho de lo normal. Además, halló que su cisura de Silvio, un surco que normalmente se extiende desde la parte delantera del cerebro hasta la parte posterior, no recorría todo el camino. Trayectoria científica En 1901 apareció el primer trabajo científico de Einstein: trataba de la atracción capilar. Publicó dos trabajos en 1902 y 1903, sobre los fundamentos estadísticos de la termodinámica, corroborando experimentalmente que la temperatura de un cuerpo se debe a la agitación de sus moléculas, una teoría aún discutida en esa época. Los artículos de 1905 En 1905 finalizó su doctorado presentando una tesis titulada Una nueva determinación de las dimensiones moleculares. Ese mismo año escribió cuatro artículos fundamentales sobre la física de pequeña y gran escala. En ellos explicaba el movimiento browniano, el efecto fotoeléctrico y desarrollaba la relatividad especial y la equivalencia masa-energía. El trabajo de Einstein sobre el efecto fotoeléctrico le proporcionaría el Premio Nobel de física en 1921. Estos artículos fueron enviados a la revista Annalen der Physik y son conocidos generalmente como los artículos del annus mirabilis (del latín: «año milagroso»). La Unión Internacional de Física Pura y Aplicada, junto con la Unesco, conmemoraron 2005 como el Año Mundial de la Física celebrando el centenario de publicación de estos trabajos. Efecto fotoeléctrico El primero de sus artículos de 1905 se titulaba Un punto de vista heurístico sobre la producción y transformación de luz. En él, Einstein proponía la idea de «quanto» de luz (ahora llamados fotones) y mostraba cómo se podía utilizar este concepto para explicar el efecto fotoeléctrico. La teoría de los cuantos de luz fue un fuerte indicio de la dualidad onda-corpúsculo y de que los sistemas físicos pueden mostrar tanto propiedades ondulatorias como corpusculares. Este artículo constituyó uno de los pilares básicos de la mecánica cuántica. Una explicación completa del efecto fotoeléctrico solamente pudo ser elaborada cuando la teoría cuántica estuvo más avanzada. Por este trabajo, y por sus contribuciones a la física teórica, Einstein recibió el Premio Nobel de Física de 1921. Movimiento browniano Su segundo artículo, titulado Sobre el movimiento requerido por la teoría cinética molecular del calor de pequeñas partículas suspendidas en un líquido estacionario, cubría sus estudios sobre el movimiento browniano. El artículo sobre el movimiento browniano, el cuarto en grado de importancia, está estrechamente relacionado, con el artículo sobre teoría molecular. Se trata de una pieza de mecánica estadística muy elaborada, destacable por el hecho que Einstein no había oído hablar de las mediciones de Robert Brown de la década de 1820 hasta finales de ese mismo año (1905); así pues, escribió este artículo, titulándolo Sobre la teoría del movimiento browniano. El artículo explicaba el fenómeno haciendo uso de las estadísticas del movimiento térmico de los átomos individuales que forman un fluido. El movimiento browniano había desconcertado a la comunidad científica desde su descubrimiento unas décadas atrás. La explicación de Einstein proporcionaba una evidencia experimental incontestable sobre la existencia real de los átomos. El artículo también aportaba un fuerte impulso a la mecánica estadística y a la teoría cinética de los fluidos, dos campos que en aquella época permanecían controvertidos. Antes de este trabajo los átomos se consideraban un concepto útil en física y química, pero al contrario de lo que cuenta la leyenda, la mayoría de los físicos contemporáneos ya creían en la teoría atómica y en la mecánica estadística desarrollada por Boltzmann, Maxwell y Gibbs; además ya se habían hecho estimaciones bastante buenas de los radios del núcleo y del número de Avogadro. El artículo de Einstein sobre el movimiento atómico entregaba a los experimentalistas un método sencillo para contar átomos mirando a través de un microscopio ordinario. Wilhelm Ostwald, uno de los líderes de la escuela antiatómica, comunicó a Arnold Sommerfeld que había sido transformado en un creyente en los átomos por la explicación de Einstein del movimiento browniano. Relatividad especial El tercer artículo de Einstein de ese año se titulaba Zur Elektrodynamik bewegter Körper («Sobre la electrodinámica de cuerpos en movimiento»). En este artículo Einstein introducía la teoría de la relatividad especial estudiando el movimiento de los cuerpos y el electromagnetismo en ausencia de la fuerza de interacción gravitatoria. La relatividad especial resolvía los problemas abiertos por el experimento de Michelson y Morley en el que se había demostrado que las ondas electromagnéticas que forman la luz se movían en ausencia de un medio. La velocidad de la luz es, por lo tanto, constante y no relativa al movimiento. Ya en 1894, George Fitzgerald había estudiado esta cuestión demostrando que el experimento de Michelson y Morley podía ser explicado si los cuerpos se contraen en la dirección de su movimiento. De hecho, algunas de las ecuaciones fundamentales del artículo de Einstein habían sido introducidas anteriormente (1903) por Hendrik Lorentz, físico neerlandés, dando forma matemática a la conjetura de Fitzgerald. Esta famosa publicación está cuestionada como trabajo original de Einstein, debido a que en ella omitió citar toda referencia a las ideas o conceptos desarrollados por estos autores así como los trabajos de Poincaré. En realidad Einstein desarrollaba su teoría de una manera totalmente diferente a estos autores deduciendo hechos experimentales a partir de principios fundamentales y no dando una explicación fenomenológica a observaciones desconcertantes. El mérito de Einstein estaba por lo tanto en explicar lo sucedido en el experimento de Michelson y Morley como consecuencia final de una teoría completa y elegante basada en principios fundamentales y no como una explicación ad-hoc o fenomenológica de un fenómeno observado. Su razonamiento se basó en dos axiomas simples: En el primero reformuló el principio de simultaneidad, introducido por Galileo Galilei siglos antes, por el que las leyes de la física deben ser invariantes para todos los observadores que se mueven a velocidades constantes entre ellos, y el segundo, que la velocidad de la luz es constante para cualquier observador. Este segundo axioma, revolucionario, va más allá de las consecuencias previstas por Lorentz o Poincaré que simplemente relataban un mecanismo para explicar el acortamiento de uno de los brazos del experimento de Michelson y Morley. Este postulado implica que si un destello de luz se lanza al cruzarse dos observadores en movimiento relativo, ambos verán alejarse la luz produciendo un círculo perfecto con cada uno de ellos en el centro. Si a ambos lados de los observadores se pusiera un detector, ninguno de los observadores se pondría de acuerdo en qué detector se activó primero (se pierden los conceptos de tiempo absoluto y simultaneidad). La teoría recibió el nombre de «teoría especial de la relatividad» o «teoría restringida de la relatividad» para distinguirla de la teoría de la relatividad general, que fue introducida por Einstein en 1915 y en la que se consideran los efectos de la gravedad y la aceleración. Equivalencia masa-energía El cuarto artículo de aquel año se titulaba Ist die Trägheit eines Körpers von seinem Energieinhalt abhängig y mostraba una deducción de la fórmula de la relatividad que relaciona masa y energía. En este artículo se exponía que la variación de masa de un objeto que emite una energía L, es: donde V era la notación de la velocidad de la luz usada por Einstein en 1905. Esta fórmula implica que la energía E de un cuerpo en reposo es igual a su masa m multiplicada por la velocidad de la luz al cuadrado: Muestra cómo una partícula con masa posee un tipo de energía, «energía en reposo», distinta de las clásicas energía cinética y energía potencial. La relación masa-energía se utiliza comúnmente para explicar cómo se produce la energía nuclear; midiendo la masa de núcleos atómicos y dividiendo por el número atómico se puede calcular la energía de enlace atrapada en los núcleos atómicos. Paralelamente, la cantidad de energía producida en la fisión de un núcleo atómico se calcula como la diferencia de masa entre el núcleo inicial y los productos de su desintegración, multiplicada por la velocidad de la luz al cuadrado. Relatividad general En noviembre de 1915, Einstein presentó una serie de conferencias en la Academia Prusiana de las Ciencias en las que describió la teoría de la relatividad general. La última de estas charlas concluyó con la presentación de la ecuación que reemplaza a la ley de gravedad de Isaac Newton. En esta teoría todos los observadores son considerados equivalentes y no únicamente aquellos que se mueven con una velocidad uniforme. La gravedad no es ya una fuerza o acción a distancia, como era en la gravedad newtoniana, sino una consecuencia de la curvatura del espacio-tiempo. La teoría proporcionaba las bases para el estudio de la cosmología y permitía comprender las características esenciales del Universo, muchas de las cuales no serían descubiertas sino con posterioridad a la muerte de Einstein. La relatividad general fue obtenida por Einstein a partir de razonamientos matemáticos, experimentos hipotéticos (gedanken experiment) y rigurosa deducción matemática sin contar realmente con una base experimental. El principio fundamental de la teoría era el denominado principio de equivalencia. A pesar de la abstracción matemática de la teoría, las ecuaciones permitían deducir fenómenos comprobables. El 29 de mayo de 1919, Arthur Eddington fue capaz de medir, durante un eclipse, la desviación de la luz de una estrella al pasar cerca del Sol, una de las predicciones de la relatividad general. Cuando se hizo pública esta confirmación la fama de Einstein se incrementó enormemente y se consideró un paso revolucionario en la física. Desde entonces la teoría se ha verificado en todos y cada uno de los experimentos y verificaciones realizados hasta el momento. A pesar de su popularidad, o quizás precisamente por ella, la teoría contó con importantes detractores entre la comunidad científica que no podían aceptar una física sin un sistema de referencia absoluto. Estadísticas de Bose-Einstein En 1924 Einstein recibió un artículo de un joven físico indio, Satyendranath Bose, denominado La ley de Plank y la hipótesis del cuanto de luz, describiendo a la luz como un gas de fotones y pidiendo la ayuda de Einstein para su publicación. Einstein se dio cuenta de que el mismo tipo de estadísticas podían aplicarse a grupos de átomos y publicó el artículo, conjuntamente con Bose, en alemán, la lengua más importante en física en la época. Las estadísticas de Bose-Einstein explican el comportamiento de los tipos básicos de partículas elementales denominadas bosones. Debate Bohr-Einstein La teoría de campo unificada Einstein dedicó sus últimos años a la búsqueda de una de las más importantes teorías de la física, la llamada teoría de campo unificada. Dicha búsqueda, después de su teoría general de la relatividad, consistió en una serie de intentos tendentes a generalizar su teoría de la gravitación para lograr unificar y resumir las leyes fundamentales de la física, específicamente la gravitación y el electromagnetismo. En el año 1950, expuso su teoría de campo unificada en un artículo titulado «Sobre la teoría generalizada de la gravitación» (On the Generalized Theory of Gravitation) en la revista Scientific American. Aunque Albert Einstein fue mundialmente célebre por sus trabajos en física teórica, paulatinamente fue aislándose en su investigación, y sus intentos no tuvieron éxito. Persiguiendo la unificación de las fuerzas fundamentales, Albert ignoró algunos importantes desarrollos en la física, siendo notablemente visible en el tema de las fuerzas nuclear fuerte y nuclear débil, que no se entendieron bien sino después de quince años tras la muerte de Einstein (cerca del año 1970), mediante numerosos experimentos en física de altas energías. Los intentos propuestos por la teoría de cuerdas o la teoría M, evidencian que aún perdura su ímpetu para conseguir demostrar la gran teoría de la unificación de las leyes de la física. Actividad política La causa sionista Los acontecimientos de la Primera Guerra Mundial empujaron a Einstein a comprometerse políticamente, tomando partido. Sentía desprecio por la violencia, la bravuconería, la agresión y la injusticia. Originario de una familia judía asimilada, Einstein advirtió la crecida del antisemitismo durante la Primera Guerra Mundial y abogó parcialmente por la causa sionista. Einstein fue uno de los miembros más conocidos del Partido Democrático Alemán (DDP). Entre 1921 y 1932 pronunció diversos discursos, con el propósito de ayudar a recoger fondos para la colectividad judía y sostener la Universidad Hebrea de Jerusalén, fundada en 1918, y como prueba de su creciente adhesión a la causa sionista. Sin embargo, aunque estaba a favor de que Palestina fuese un "hogar" para los judíos, tal y como afirmaba la Declaración Balfour, estaba en contra de la creación de un Estado judío. Así, en enero de 1946, en una declaración ante el Comité Angloamericano de Investigación que interrogó a varias personalidades sobre la creación de un Estado judío, Einstein dijo: Einstein abogó por un Estado binacional donde judíos y palestinos tuvieran los mismos derechos: «Nosotros, esto es, judíos y árabes, debemos unirnos y llegar a una comprensión recíproca en cuanto a las necesidades de los dos pueblos, en lo que atañe a las directivas satisfactorias para una convivencia provechosa». Con el auge del nazismo en Alemania, Einstein dejó su país y decidó residir en Estados Unidos. Un grupo de enemigos de sus teorías en la Alemania nazi creó una asociación en su contra, e incluso un hombre fue acusado de promover su asesinato. Además, se publicó un libro titulado Cien autores en contra de Einstein, ante el cual Einstein se limitó a decir: «¿Por qué cien? Si estuviera equivocado, bastaría con uno solo». El Estado de Israel se creó en 1948. Cuando Jaim Weizmann, el primer presidente de Israel y viejo amigo de Einstein, murió en 1952, Abba Eban, embajador israelí en Estados Unidos, le ofreció la presidencia. Einstein rechazó el ofrecimiento diciendo: «Estoy profundamente conmovido por el ofrecimiento del Estado de Israel y a la vez apenado y avergonzado por no poder aceptarlo. Durante toda mi vida he tratado con cuestiones objetivas, por lo que carezco de la aptitud natural y de la experiencia para tratar como es debido con la gente y para desempeñar funciones oficiales. Soy el más afligido por estas circunstancias, porque mi relación con el pueblo judío se ha convertido en mi vínculo humano más fuerte, desde que tomé plena conciencia de nuestra precaria situación entre las naciones del mundo». La causa socialista En mayo de 1949, Monthly Review publicó (en Nueva York) un artículo suyo titulado «¿Por qué el socialismo?» en el que reflexiona sobre la historia, las conquistas y las consecuencias de la «anarquía económica de la sociedad capitalista», artículo que hoy sigue teniendo vigencia. Una parte muy citada del mismo habla del papel de los medios privados en relación con las posibilidades democráticas de los países: La causa pacifista Albert Einstein fue un pacifista convencido. En 1914, 93 prominentes intelectuales alemanes firmaron el Manifiesto para el mundo civilizado para apoyar al káiser y desafiar a las «hordas de rusos aliados con mongoles y negros que pretenden atacar a la raza blanca», justificando la invasión alemana de Bélgica; pero Einstein se negó a firmarlo junto con otros tres intelectuales, que pretendían impulsar un contramanifiesto, exclamando posteriormente: Durante la Segunda Guerra Mundial, Einstein renunció parcialmente al pacifismo proponiendo a los Estados Unidos que fabricasen una bomba nuclear antes que la Alemania nazi, pero advirtió públicamente sobre los peligros de una guerra nuclear y proponía el control internacional de dichas armas. En 1939 se produce su más importante participación en cuestiones mundiales. El Informe Smyth, aunque con sutiles recortes y omisiones, narra la historia de cómo los físicos trataron, sin éxito, de interesar a la Marina y al Ejército en el proyecto atómico. Pero la célebre carta de Einstein a Roosevelt escrita el 2 de agosto fue la que consiguió romper la rigidez de la mentalidad militar. Sin embargo, Einstein, que siente desprecio por la violencia y las guerras, es considerado el «padre de la bomba atómica». En plena Segunda Guerra Mundial apoyó una iniciativa de Robert Oppenheimer para comenzar el programa de desarrollo de armas nucleares conocido como Proyecto Manhattan. En su discurso pronunciado en Nueva York, en diciembre de 1945, expuso: Einstein impulsó en 1955 el conocido Manifiesto Russell-Einstein, un llamamiento a los científicos para unirse en favor de la desaparición de las armas nucleares. Este documento sirvió de inspiración para la posterior fundación de las Conferencias Pugwash, que en 1995 se hicieron acreedoras del Premio Nobel de la Paz. Ética y religión Einstein se declaró agnóstico, y en ocasiones se declaró también ateo aunque algunos historiadores niegan este extremo. En cierta ocasión, en una reunión, se le preguntó a Einstein si creía o no en un dios a lo que respondió: «Creo en el dios de Spinoza, que es idéntico al orden matemático del Universo». Dijo que creía en el Dios «panteísta» de Baruch Spinoza, pero no en un dios personal, una creencia que criticó. Einstein distingue tres estilos que suelen entremezclarse en la práctica de la religión. El primero está motivado por el miedo y la mala comprensión de la causalidad, por tanto, tiende a inventar seres sobrenaturales. El segundo es social y moral, motivado por el deseo de apoyo y amor. Ambos tienen un concepto antropomórfico de Dios. El tercero —que Einstein considera el más maduro—, está motivado por un sentido de asombro ante la Naturaleza. En una carta a la Asociación Central de Ciudadanos Alemanes de la Fe Judía, en 1920, les escribe: Una cita más larga de Einstein aparece en Science, Philosophy, and Religion, A Symposium (Simposio de ciencia, filosofía y religión), publicado por la Conferencia de Ciencia, Filosofía y Religión en su Relación con la Forma de Vida Democrática: En una carta fechada en marzo de 1954, que fue incluida en el libro Albert Einstein: su lado humano (en inglés), editado por su fiel secretaria Helen Dukas y su colaborador Banesh Hoffman y publicada por Princeton University Press, Einstein dice: La carta al filósofo Eric Gutkind, del 3 de enero de ese mismo año, subastada en mayo de 2008, deja al parecer las cosas más claras. Dice Einstein: También hay una carta poco conocida de Einstein, enviada a Guy H. Raner Jr, el 2 de julio de 1945, en respuesta a un rumor de que un sacerdote jesuita lo había convertido al cristianismo, en la cual Einstein se declara directamente ateo (citado por Michael R. Gilmore en Skeptic Magazine, v. 5, No.2) William Hermanns, veterano superviviente de Verdún, profesor de literatura alemana, entrevistó varias veces a Einstein, la primera en Berlín en 1930. En esa ocasión planteó la idea de una religión cósmica, una idea a la que había hecho referencia en la conversación sobre la realidad que había tenido con Rabindranath Tagore y que después desarrolló y tituló «Religión y Ciencia», publicado en el New York Times en 1930. Einstein siguió desarrollando esta idea y Herrmanns, que la consideraba compatible con las creencias tradicionales se propuso fundar un movimiento que integrara las tradiciones judías, cristiana, vedista, budista e islámica. Estaba dispuesto a obtener declaraciones concisas y precisas sobre Dios. Einstein no pudo serlo más: Para Einstein, su religión cósmica y su condición judía no guardaban relación entre sí. Cuando se le preguntó si existía un punto de vista judío replicó: Einstein decía que la moral no era dictada por Dios, sino por la humanidad: Algunas publicaciones . First of a series of papers on this topic. . The chasing a light beam thought experiment is described on pages 48–51. Collected Papers: . Más información sobre los volúmenes publicados se halla en la web Einstein Papers Project y en Princeton University Press Einstein Page Eponimia Además de numerosas calles, plazas y ciudades de varios países del mundo, así como distintas instituciones académicas, una amplia relación de elementos relacionados con la ciencia llevan el nombre de Einstein en su memoria: Química El elemento Einstenio fue nombrado en su honor. Matemáticas Convenio de suma de Einstein, notación abreviada usada en álgebra tensorial. Física Anillo de Einstein, efecto gravitatorio sobre la luz estelar. Ecuaciones del campo de Einstein, 10 ecuaciones de la teoría de la relatividad general. Estadística de Bose-Einstein, tipo de mecánica estadística aplicable a bosones en equilibrio térmico. Condensado de Bose-Einstein, estado de agregación de la materia que se da en ciertos materiales a temperaturas cercanas al cero absoluto. Einstein (unidad de medida), unidad de medida de cantidad de radiación. Relación de Einstein (teoría cinética), relacionada con el movimiento browniano. Modelo de Einstein, utilizado en la física de sólidos de la mecánica cuántica. Espacio Observatorio Einstein, un detector espacial de rayos X astronómicos. Albert Einstein (nave), nave espacial de carga europea lanzada en 2013. Astronomía Torre Einstein, observatorio erigido en 1924 situado en Potsdam. Einstein, cráter de impacto lunar. Einstein, asteroide número 2001 del catálogo del Minor Planet Center. Cruz de Einstein, cuásar afectado por el fenómenos gravitatorios que afectan a su luz. Museo Einsteinhaus, casa-museo localizada en Berna, dedicada al físico alemán. Premio Medalla Albert Einstein, reconociendo anualmente desde 1979 trabajos relacionados con la obra de Einstein. Medalla Albert Einstein de la UNESCO. En la cultura popular Albert Einstein ha sido objeto e inspiración para muchas obras de la cultura popular. En el cumpleaños 72 de Einstein, el 14 de marzo de 1951, el fotógrafo de United Press, Arthur Sasse, intentaba persuadirlo para que no sonriera ante la cámara, pero ese día, al haber sonreído a los fotógrafos muchas veces, Einstein le sacó la lengua. Esta fotografía se convirtió en una de las más populares jamás tomadas. Einstein disfrutó de esta foto y le pidió a UPI que le diera nueve copias para uso personal, una de las cuales firmó para un reportero. El 19 de junio de 2009, la fotografía firmada original se vendió en una subasta por $, un récord para una foto de Einstein. Einstein es un modelo favorito para las representaciones de genios o científicos locos; Su rostro expresivo y sus peinados distintivos han sido ampliamente copiados y exagerados. Frederic Golden, de la revista Time , escribió que Einstein era "el sueño de un dibujante hecho realidad". El nombre de "Einstein" se ha convertido en sinónimo de una persona extremadamente inteligente. También se puede usar sarcásticamente cuando alguien dice lo obvio o demuestra falta de sabiduría o inteligencia. Einstein también ha sido objeto de muchas citas que se han hecho especialmente populares en Internet y se le han atribuido falsamente, incluida "la definición de locura". Véase también Referencias Bibliografía Bibliografía general Albert Einstein. (2004). "Colección Grandes Biografías, 59". Editorial Planeta-De Agostini. Barcelona, España. ISBN 84-395-4730-7. Amis, Martin. (2005). Los monstruos de Einstein. Ediciones Minotauro. Barcelona, España. ISBN 84-450-7089-4. Clark, Ronald W., Einstein: The Life and Times, 1971, ISBN 0-380-44123-3. Conferencia de Ciencia, Filosofía y Religión en su Relación con la Forma de Vida Democrática, Science, Philosophy, and Religion, A Symposium (Simposio de ciencia, filosofía y religión), Nueva York, 1941. Dukas, Helen, y Banesh Hoffman, Albert Einstein: The Human Side (Albert Einstein, el lado humano), Princeton University Press. Hart, Michael H., The 100, Carol Publishing Group, 1992, ISBN 0-8065-1350-0. Otero Carvajal, Luis Enrique: "Einstein y la revolución científica del siglo XX", Cuadernos de Historia Contemporanéa n.º 27 (2005), . Pais, Abraham, Subtle is the Lord. The Science and the Life of Albert Einstein, 1982, ISBN 0-19-520438-7. Parker, Barry, Einstein's Brainchild, 280 págs., 2000, Prometheus Books, ISBN 1-57392-857-7 (en inglés) Einstein y la teoría de la relatividad Einstein, Albert, El significado de la relatividad, Espasa Calpe, 1971. Greene, Brian, El universo elegante, Planeta, 2001. Hawking, Stephen, Breve historia del tiempo, Planeta, 1992, ISBN 968-406-356-3. Russell, Bertrand, El ABC de la relatividad, 1925. Schwinger, Julian (1986): Einstein's Legacy: The Unity of Space and Time. Scientific American Library. 250 págs. Nueva York ISBN 0-7167-5011-2 (El Legado de Einstein. La unidad del espacio y el tiempo. Prensa Científica, S.A., Biblioteca Scientific American. 250 págs. Barcelona, 1995, ISBN 84-7593-054-9) Material digital Byron Preiss Multimedia. (2001). Einstein y su teoría de la relatividad. "Colección Ciencia Activa". Anaya Multimedia-Anaya Interactiva. Madrid, España. ISBN 84-415-0247-1. (dos CD y un manual). Enlaces externos (colección digitalizada de documentos de y sobre Einstein) Laureados con el Premio Nobel 1921 Nacidos en Ulm Doctores honoris causa por la Universidad de Ginebra Personas que dan nombre a un asteroide Judíos laureados con el Premio Nobel de Física
29_0
Antipartícula
En física de partículas, a cada tipo de partícula se le asocia una antipartícula con la misma masa, pero con cargas físicas opuestas (como la carga eléctrica). Algunas partículas son idénticas a su antipartícula, como por ejemplo el fotón, que no tiene carga. Pero no todas las partículas de carga neutra son idénticas a su antipartícula. Siempre hemos tenido la impresión de que las leyes de la naturaleza parecían haber sido diseñadas para que todo fuese simétrico entre partículas y antipartículas hasta que los experimentos de la llamada violación CP (violación carga-paridad) encontraron que la simetría temporal se violaba en ciertos sucesos de la naturaleza. El exceso observado de bariones con respecto a los anti-bariones, en el universo, es uno de los principales problemas sin respuesta de la cosmología. Los pares partícula-antipartícula pueden aniquilarse entre ellos si se encuentran en el estado cuántico apropiado. Estos estados pueden producirse en varios procesos. Estos procesos se usan en los aceleradores de partículas para crear nuevas partículas y probar las teorías de la física de partículas. Los procesos de altas energías en la naturaleza pueden crear antipartículas, y estos son visibles debido a los rayos cósmicos y en ciertas reacciones nucleares. La palabra antimateria se refiere a las antipartículas elementales, los compuestos de antipartículas hechos con éstas (como el antihidrógeno) y formaciones mayores que pueden hacerse con ellos. Las leyes de la naturaleza son casi simétricas con respecto a las partículas y antipartículas. Por ejemplo, un antiprotón y un positrón pueden formar un antihidrógeno [que se cree que tiene las mismas propiedades que un átomo de hidrógeno. Esto lleva a preguntarse por qué la formación de materia tras el Big Bang dio lugar a un universo formado casi enteramente por materia, en lugar de ser una mezcla a medias de materia y antimateria. El descubrimiento de la violación de la paridad de carga ayudó a esclarecer este problema al demostrar que esta simetría, que originalmente se creía perfecta, era sólo aproximada. Dado que carga es conservada, no es posible crear una antipartícula sin destruir otra partícula de la misma carga (como ocurre, por ejemplo, cuando se producen antipartículas de forma natural mediante desintegración beta o la colisión de rayos cósmicos con la atmósfera terrestre), o mediante la creación simultánea de una partícula y su antipartícula, lo que puede ocurrir en aceleradores de partículas como el Gran Colisionador de Hadrones del CERN. Aunque las partículas y sus antipartículas tienen cargas opuestas, las partículas eléctricamente neutras no tienen por qué ser idénticas a sus antipartículas. El neutrón, por ejemplo, está hecho de quarks, el antineutrón de antiquarks, y se distinguen entre sí porque neutrones y antineutrones se aniquilan al entrar en contacto. Sin embargo, otras partículas neutras son sus propias antipartículas, como fotóns, Z0 bosones, mesóns, e hipotéticos gravitóns y algunas hipotéticas partículas masivas débilmente interactuantes. Historia Experimento En 1932, poco después de la predicción del positrón por Dirac, encontró que las colisiones de los rayos cósmicos producían estas partículas dentro de una cámara de niebla —un detector de partículas donde los electrones o los positrones que se mueven a través de él dejan detrás de ellos trayectorias, marcando su movimiento por el gas—. La relación entre la carga eléctrica y la masa de una partícula puede medirse observando las curvas que marcan en su camino por la cámara de niebla dentro de un campo magnético. Originalmente los positrones, debido a que sus trayectorias también se curvaban, fueron confundidos con electrones que viajaban en la dirección opuesta. El antiprotón y el antineutrón fueron encontrados por Emilio Segrè y Owen Chamberlain en 1955, en la universidad de California. Desde entonces se han creado las antipartículas de muchas otras partículas subatómicas en los experimentos con aceleradores de partículas. En años recientes, se ha conseguido generar átomos completos de antimateria compuestos por antiprotones y positrones, recolectados en trampas electromagnéticas. Teoría de Dirac ...el desarrollo de la teoría cuántica de campos hizo innecesaria la interpretación de las antipartículas como huecos, incluso aunque desafortunadamente aún persiste en muchos libros de texto. Las soluciones de la ecuación de Dirac contenían estados cuánticos de energía negativa. Como resultado un electrón siempre podría radiar energía cayendo en un estado de energía negativa. Incluso peor que eso, podría estar radiando una cantidad infinita de energía porque habría disponibles infinitos estados de energía negativa. Para resolver esta situación que iba contra la física, Dirac postuló que un "mar" de electrones de energía negativa llenaban el universo, ya ocupando todos los estados de energía negativa de forma que, debido al principio de exclusión de Pauli ningún otro electrón podría caer en ellos. Sin embargo, a veces, una de estas partículas con energía negativa podría ser elevada desde este mar de Dirac a un nivel de energía mayor para convertirse en una partícula de energía positiva. Pero, cuando era elevada, esta partícula dejaba un hueco detrás en el mar, que actuaría exactamente como un electrón de energía positiva pero con carga contraria. Dirac interpretó estos electrones inversos como protones, y llamó por eso a su artículo de 1930 Una teoría de electrones y protones. Dirac ya era consciente del problema de que esta representación implicaba una carga negativa infinita para el universo, e intentó argumentar que nosotros percibiríamos este estado como el estado normal de carga cero. Otra dificultad que esta teoría encontraba era la diferencia entre las masas del electrón y el protón. Aquí Dirac intentó solucionarlo argumentando que esto se debía a las interacciones electromagnéticas con ese "mar", hasta que Hermann Weyl probó que la teoría de huecos era completamente simétrica entre las cargas negativas y positivas. Dirac también predijo una reacción e-+p+→γ+γ (en la que el electrón y el protón se aniquilaban para dar dos fotones). Robert Oppenheimer e Ígor Tam probaron que esto causaría que la materia ordinaria desapareciera demasiado deprisa. Un año más tarde, en 1931, Dirac modificó su teoría y postuló el positrón, una partícula nueva de la misma masa que el electrón. El descubrimiento de esa partícula el año siguiente eliminó las dos últimas objeciones a su teoría. Sin embargo permanecía el problema de la carga infinita del universo. También, como ahora sabemos, los bosones (partículas con spin entero) también poseen antipartículas, pero estos no obedecen el principio de exclusión de Pauli, así que la teoría de los huecos no funciona con ellos. La teoría cuántica de campos proporciona una interpretación unificada de las antipartículas, que resuelve ambos problemas. Aniquilación partícula-antipartícula Si una partícula y su antipartícula se encuentran en los estados cuánticos apropiados, entonces pueden aniquilarse la una a la otra y producir otras partículas. Las reacciones como: e+ + e- → γ + γ (aniquilación de un par electrón-positrón en dos fotones) son un ejemplo del proceso. La aniquilación de un par electrón-positrón en un solo fotón: e+ + e- → γ no puede ocurrir porque es imposible que se conserven la energía y el momento a la vez en este proceso. La reacción inversa es también imposible por esta razón. Sin embargo, este fenómeno se observa en la naturaleza; se puede crear un par electrón-positrón a partir de un solo fotón con una energía de al menos la masa de ambas partículas: 1.022 MeV. Lo cierto es que, según la teoría cuántica de campos, este proceso está permitido como un estado cuántico intermedio para tiempos suficientemente cortos en los que la violación de la conservación de la energía puede acomodarse al principio de incertidumbre de Heisenberg. Esto abre la vía para la producción de pares virtuales o su aniquilación donde el estado cuántico de una sola partícula puede fluctuar en un estado cuántico de dos partículas y volver a su estado inicial. Estos procesos son importantes en el Vacío cuántico y la renormalización de una teoría cuántica de campos. También abre el camino para una mezcla de partículas neutras a través de procesos como el mostrado aquí, que es un ejemplo complicado de la renormalización de la masa. Propiedades de las antipartículas Los estados cuánticos de una partícula y de su antipartícula pueden intercambiarse aplicando la simetría de carga (C), paridad (P), y la simetría temporal (T). Si |p,σ,n> es el estado cuántico de una partícula (n), con momento p, espín J cuyo componente en la dirección z es σ, entonces tendremos CPT |p,σ,n> = (-1)J-σ |p,-σ,nc>, donde nc es el estado de carga conjugado, es decir, la antipartícula. Este comportamiento bajo CPT es el mismo que establece que una partícula y su antipartícula están en la misma representación irreducible del grupo de Poincaré. Las propiedades de las antipartículas pueden relacionarse así con las de las partículas. Si T es una buena simetría de la dinámica, entonces T |p,σ,n> α |-p,-σ,n> CP |p,σ,n> α |-p,σ,nc> C |p,σ,n> α |p,σ,nc>, donde el signo de proporcionalidad indica que podría existir un término de fase en el lado derecho de la ecuación. En otras palabras, la partícula y su antipartícula deben tener: La misma masa m, el mismo estado de espín J, cargas eléctricas opuestas q y -q. Teoría cuántica de campos Esta sección utiliza las ideas, el lenguaje y la notación usada en la cuantización canónica de la teoría cuántica de campos. Se puede intentar cuantizar el campo de un electrón sin mezclar los operadores de creación y aniquilación escribiendo: ψ(x) = ∑k uk(x) ak e-i E(k)t, donde se está usando el símbolo k para denotar los números cuánticos p y σ de las secciones anteriores, el signo de la energía E(k) y ak denota los operadores correspondientes de aniquilación. Por supuesto, como estamos tratando con fermiones, los operadores deberán satisfacer las relaciones canónicas anticonmutativas. Sin embargo, si escribimos el Hamiltoniano H = ∑k E(k) a+k ak, vemos inmediatamente que el valor esperado de H no necesita ser positivo. Esto ocurre porque E(k) puede tener cualquier signo posible, y la combinación de operadores de creación y de aniquilación tiene valor esperado 1 o 0. Así pues se debe introducir el campo antipartícula de carga conjugada con sus propios operadores de creación y de aniquilación que satisfagan las siguientes relaciones: bk' = a+k y b+k' = ak donde k' tiene el mismo p, σ y signo de la energía opuestos. Así podemos reescribir el campo en la forma: ψ(x) = ∑k(+) uk(x) ak e-i E(k)t + ∑k(-) uk(x) b+k e-i E(k)t, donde el primer sumatorio se realiza sobre los estados positivos de energía y el segundo sobre los de energía negativa. La energía entonces se transforma en H = ∑k(+) E(k) a+k ak + ∑k(-) |E(k)| b+k bk + E0, donde E0 es una constante infinita negativa. El estado vacío se define como el estado que no contiene ninguna partícula ni antipartícula, es decir, ak |0> = 0 y bk |0> = 0. De esta forma la energía del vacío será exactamente E0. Como todas las energías se miden con respecto al vacío, H será definitivamente positiva. Un análisis de las propiedades de ak y de bk muestra que uno es el operador de aniquilación para las partículas y el otro para las antipartículas. Este es el caso de un fermión. Esta aproximación se la debemos a Vladímir Fok, Wendell Furry y Robert Oppenheimer. Si se cuantiza un campo escalar real, entonces se encuentra que solo hay una clase de operador de aniquilación, así pues los campos escalares describen a los bosones neutros. Como los campos escalares complejos admiten dos clases diferentes de operadores de aniquilación, que están relacionados por conjugación, esos campos describen bosones cargados. Interpretación de Feynman y Stueckelberg Considerando la propagación hacia atrás en el tiempo de la mitad del campo del electrón que tiene energías positivas, Richard Feynman mostró que se violaba la causalidad a menos que se permitiera que algunas partículas viajaran más rápidas que la luz. Pero si las partículas pudieran viajar más rápido que la luz entonces, desde el punto de vista de otro observador inercial parecería como si estuviera viajando atrás en el tiempo y con carga opuesta. De esta forma Feynman llegó a entender de forma gráfica el hecho de que la partícula y su antipartícula tuvieran la misma masa m y spin J pero cargas opuestas. Esto le permitió reescribir la teoría de perturbaciones de forma precisa en forma de diagramas, llamados diagramas de Feynman, con partículas viajando adelante y atrás en el tiempo. Esta técnica es ahora la más extendida para calcular amplitudes en la teoría cuántica de campos. Este gráfico fue desarrollado de forma independiente por Ernest Stueckelberg, y por eso se ha dado en llamar la interpretación de Feynman y Stueckelberg de las antipartículas. Véase también Antimateria Teoría cuántica de campos Anexo:Tabla de partículas Interacción gravitacional de la antimateria Paridad, Conjugación de carga and Simetría temporal Violación CP Teoría cuántica de campos Bariogénesis, Asimetría de bariones Universo de un único electrón Paul Dirac Referencias Lecturas adicionales Enlaces externos Antimateria
30_0
Araucariaceae
Véase Pinidae para una introducción a estos grupos Las araucariáceas (nombre científico Araucariaceae) son una familia de coníferas del Orden Araucariales, comprende 3 géneros. Son árboles de larga vida altamente resinosos, usualmente muy simétricos y cónicos. Los conos son solitarios, más o menos erectos, y pesados, las escamas ovulíferas cada una con un óvulo, semillas grandes. La familia está prácticamente restringida al Hemisferio Sur. Descripción Introducción teórica en Terminología descriptiva de las plantas Árboles de larga vida, hasta 65 m de alto y 6 m de diámetro en la base, altamente resinosos, usualmente muy simétricos y cónicos en su forma de crecimiento. Hojas simples, enteras, variadas en forma (como punzones, escamas, lineales, oblongas o elípticas), a veces en el mismo individuo, persistentes, con la punta aguzada en algunas especies de Araucaria, de disposición espiralada u opuesta. Dioicos o monoicos. Estróbilos microsporangiados cilíndricos, con numerosos microsporofilos dispuestos en espiral, cada uno con 4-20 microsporangios, polen sin "sacca", la exina con hoyuelos. Conos solitarios, más o menos erectos, pesados, madurando en 2-3 años y finalmente desintegrándose en el árbol, escamas ovulíferas cada una con 1 óvulo, numerosas, dispuestas en espiral, aplanadas, lineales a peltadas, la bráctea más o menos larga que la escama y fusionada a ella, semillas grandes, con o sin alas marginales. 2 cotiledones, a veces altamente divididos y pareciendo 4. Ecología Araucariaceae está casi restringida al Hemisferio Sur, desde el sudeste de Asia a Australia, Nueva Zelanda, y el sur de Sudamérica. Los miembros de esta familia usualmente crecen en bosques lluviosos tropicales y subtropicales como también en áreas más templadas. La familia es más diversa en Nueva Caledonia, donde hay 5 especies de Agathis y 13 especies de Araucaria endémicas. Las especies de esta área de cada género forman un grupo monofilético de acuerdo con análisis de rbcL. El pequeño monto de diversificación genética de las especies dentro de cada género sugiere una radiación relativamente reciente en el suelo inusual (ultramáfico) de Nueva Caledonia. En algunas especies de Araucaria, las hojas que terminan en puntas aguzadas, la habilidad de regenerar ramas, y la protección del ápice de crecimiento por las ramas que lo rodean sugieren una adaptación contra herbívoros hoy extintos. Uno de los árboles más grandes y de larga vida de esta familia es Agathis australis, comúnmente llamado Kauri. Un individuo particular en el norte de Nueva Zelanda tenía 51,5 m de altura y 13,8 m de circunferencia y unos 2000 años de vida a principios del 2001. El nombre maorí para este individuo es Tane Mahuta, que se traduce como "dios del bosque". Filogenia Introducción teórica en Filogenia Las secuencias de 28S rRNA fuertemente sugieren una relación de hermanos entre Podocarpaceae y Araucariaceae, compartiendo las siguientes sinapomorfías: un óvulo por escama ovulífera, la escama ovulífera cercanamente asociada a la semilla, y posiblemente la bráctea fusionada a la escama. Agathis y Araucaria difieren una de otra fuertemente en sus estructuras foliares y reproductivas. Las hojas de Agathis son opuestas y amplias, mientras que las de Araucaria son de disposición espiralada y lineales a amplias. Agathis es monoico con óvulos libres de la escama del cono y tiene semillas aladas. Araucaria es dioico, con óvulos fusionados a la escama del cono y usualmente tiene semillas sin alas. Las secuencias de ADN de rbcL también sostienen una monofilia de los dos géneros. Los datos de rbcL también están de acuerdo con la división del género en 4 secciones basados en caracgteres no moleculares como el número de cotiledones, posición de los conos microsporangiados, y caracteres celulares de la epidermis de las hojas. Wollemia nobilis fue encontrado en 1994 en el Parque nacional Wollemi en Sídney, Australia, por el oficial del "National Park and Wildlife Service" David Noble. Era conocido para la ciencia antes de 1994 solo como un fósil que se extendía hasta hace 150 millones de años, y es uno de los árboles del mundo más raros, con solo unos 43 adultos en dos poblaciones que distan unos 1,5 km entre ellas. Los árboles, algunos de los cuales tienen entre 500 y 1000 años, tienen una corteza inusual, descripta como "chocolate burbujeante". Taxonomía Introducción teórica en Taxonomía 3 géneros, 32 especies. Los géneros más representados son Araucaria (18 especies) y Agathis (13 especies). La clasificación, según Christenhusz et al. 2011, que también provee una secuencia lineal de las gimnospermas hasta género: Familia 8. Araucariaceae Henkel & W.Hochst., Syn. Nadelhölz.: xvii, 1 (1865), nom. cons. Tipo: Araucaria Juss. Sinónimos: Dammaraceae Link, Abh. Konigl. Akad. Wiss. Berlín 1827: 157 (1830), nom. illeg. Tipo: Dammara Link. Agathidaceae (Vierh.) Baum.-Bodenh. ex A.V.Bobrov & Melikian, Komarovia 4: 61 (2006). Tipo: Agathis Salisb. 3 géneros, 41 especies, Sudeste de Asia y Filipinas a Australasia, Pacífico, sur de Sudamérica. 8.1. Araucaria Juss., Gen. 413 (1789). Tipo: A. imbricata Pav., nom. illeg. (≡ Pinus araucana Molina) Dombeya Lam., Encycl. Meth., Bot. 2: 301 (1786), nom. illeg., non L’Hér. (1785), nom. rej. Tipo: D. chilensis Lam., nom. illeg. (≡ Pinus araucana Molina) Sinónimos: Columbea Salisb., Trans. Linn. Soc. London 8: 317 (1807), nom. illeg. Tipo: C. quadrifaria Salisb., nom. illeg. (≡ Pinus araucana Molina) Eutassa Salisb., Trans. Linn. Soc. London 8: 316 (1807). Tipo: E. heterophylla Salisb. (≡ Araucaria heterophylla). Eutacta Link, Linnaea 15: 543 (1842). Tipo: E. cunninghamii (Aiton ex A. Cunn.) Link (tipo designado aquí por Mill & Farjon) (≡ Araucaria cunninghamii Aiton ex A.Cunn.). Quadrifaria Manetti ex Gordon, Pinet. Suppl. 14 (1862). Tipo: Q. imbricata (Pav.) Manetti ex Gordon (≡ Araucaria araucana). Marywildea A.V.Bobrov & Melikian, Komarovia 4: 57 (2006). Tipo: M. bidwillii (Hook.) A.V.Bobrov & Melikian (≡ Araucaria bidwillii Hook.). Titanodendron A.V.Bobrov & Melikian, Komarovia 4: 60 (2006). Tipo: T. hunsteinii (K.Schum.) A.V.Bobrov & Melikian (≡ Araucaria hunsteinii K.Schum.). 8.2. Wollemia W.G.Jones, K.D.Hill & J.M.Allen, Telopea 6: 173 (1995). Tipo: W. nobilis W.G.Jones, K.D.Hill & J.M.Allen 8.3. Agathis Salisb., Trans. Linn. Soc. London 8: 311 (1807), nom. cons. Tipo: A. loranthifolia Salisb., nom. illeg. (≡ Pinus dammara (Lamb.) L.C.Rich.) Sinónimos: Dammara Link, Enum. Pl. Horti Berol. 2: 411 (1822), nom. illeg., non Gaertner (1790). Salisburyodendron A.V.Bobrov & Melikian, Komarovia 4: 62 (2006). Tipo: S. australis (Lamb.) A.V.Bobrov & Melikian (≡ Agathis australis Salisb.). Evolución Araucariaceae, como Podocarpaceae, es una familia distintiva casi exclusiva del Hemisferio Sur. Su registro fósil, en particular el de Araucaria, se extiende hasta el Jurásico. Importancia económica Los dos géneros más representados producen madera. Los individuos más grandes, como los de Agathis australis de Nueva Zelanda, que llegan a 65 m de altura y 6 m de diámetro, contienen grandes cantidades de madera de alta calidad. Araucaria heterophylla y Araucaria araucana de Chile son ornamentales muy preciados, tanto como plantas de prados como plantas de interior. Enlaces externos Stevens, P. F. 2001 en adelante. Angiosperm Phylogeny Website Versión 7, mayo de 2006 . Referencias Judd, Campbell, Kellogg, Stevens, Donoghue. 2007. Plant Systematics, a phylogenetic approach, third edition. Sinauer associates, inc. USA.
35_0
Aldehído
Los aldehídos son compuestos orgánicos caracterizados por poseer el grupo funcional -CHO (carbonilo). Un grupo carbonilo es el que se obtiene separando un átomo de hidrógeno del formaldehído. Como tal no tiene existencia libre, aunque puede considerarse que todos los aldehídos poseen un grupo terminal carbonilo. Los aldehídos se denominan como los alcoholes correspondientes, cambiando la terminación -ol por -al. Etimológicamente, la palabra aldehído proviene del latín científico alcohol dehydrogarium (alcohol deshidrogenado). Estructura y enlace Los aldehídos presentan un carbono central que está unido por un doble enlace al oxígeno y un enlace sencillo al hidrógeno y un enlace sencillo a un tercer sustituyente, que es el carbono o, en el caso del formaldehído, el hidrógeno. El carbono central suele describirse como sp2-hibridado. El grupo aldehído es algo polar. La longitud de enlace es de unos 120-122 picómetros. Propiedades Propiedades Físicas La doble unión del grupo carbonilo dado que el grupo carbonilo está polarizado debido al fenómeno de resonancia. Los aldehídos con hidrógeno sobre un carbono sp³ en posición alfa al grupo carbonilo presentan isomería tautomérica. Los aldehídos se obtienen de la deshidratación de un alcohol primario con permanganato de potasio, la reacción tiene que ser débil, las cetonas también se obtienen de la deshidratación de un alcohol, pero estas se obtienen de un alcohol secundario e igualmente son deshidratados con permanganato de potasio y se obtienen con una reacción débil, si la reacción del alcohol es fuerte, el resultado será un ácido carboxílico respectivamente. Los aldehídos tienen propiedades diversas que dependen del resto de la molécula. Los aldehídos más pequeños son más solubles en agua, formaldehído y acetaldehído completamente. Los aldehídos volátiles tienen olores penetrantes. Los aldehídos pueden identificarse por métodos espectroscópicos. Mediante espectroscopia IR, muestran una banda CO fuerte cerca de 1700 cm-1. En sus espectros de 1H NMR, el centro de hidrógeno del formilo absorbe cerca de δH 9,5 a 10, que es una parte distintiva del espectro. Esta señal muestra el acoplamiento característico a cualquier protón del carbono α con una pequeña constante de acoplamiento típicamente inferior a 3,0 Hz. Los espectros 13C NMR de aldehídos y cetonas dan una señal suprimida (débil) pero distintiva en C 190 a 205. Propiedades Químicas Se comportan como reductor, por oxidación el aldehído da ácidos con igual número de átomos de carbono. La reacción típica de los aldehídos y las cetonas es la adición nucleofílica. Aplicaciones y aparición Aldehídos importantes y compuestos relacionados. El grupo aldehído (o grupo formilo''') está coloreado en rojo. Desde la izquierda: (1) formaldehído y (2) su trímero 1,3,5-trioxano, (3) acetaldehído y (4) su enol alcohol vinílico, (5) glucosa (forma piranosa como α--glucopiranosa), (6) el saborizante cinamaldehído, (7) retinal, que se forma con opsinas fotorreceptores, y (8) la vitamina piridoxal. Aldehídos naturales En los aceites esenciales se encuentran trazas de muchos aldehídos que a menudo contribuyen a sus olores favorables, por ejemplo, cinamaldehído, cilantro y vainillina. Posiblemente debido a la alta reactividad del grupo formilo, los aldehídos no son comunes en varios de los bloques de construcción naturales: aminoácidos, ácidos nucleicos, lípidos. Sin embargo, la mayoría de los azúcares son derivados de aldehídos. Estas aldosas existen como hemiacetales, una especie de forma enmascarada del aldehído original. Por ejemplo, en solución acuosa sólo una pequeña fracción de la glucosa existe como aldehído. Nomenclatura Se nombran sustituyendo la terminación -ol del nombre del alcohol por -al. Los aldehídos más simples (metanal y etanal) tienen otros nombres que no siguen el estándar de la Unión Internacional de Química Pura y Aplicada (IUPAC) pero son más utilizados formaldehído y acetaldehído, respectivamente, estos últimos dos son nombres triviales aceptados por la IUPAC. La serie homóloga para los siguientes aldehídos es: (n = 0, 1, 2, 3, 4, …) Para nombrar aldehídos como sustituyentes Si es sustituyente de un sustituyente Los aldehídos son funciones terminales, es decir que van al final de las cadenas Nomenclatura de ciclos Si el ciclo presenta otros sustituyentes menos importantes se los nombre primeros, así: Para mayores detalles consulte Nomenclatura de aldehídos Reacciones de los aldehídos Los aldehídos aromáticos como el benzaldehído se dismutan en presencia de una base dando el alcohol y el ácido carboxílico correspondiente: 2 → + Con aminas primarias dan las iminas correspondiente en una reacción exotérmica que a menudo es espontánea: R-CH=O + ' → R-CH=N-R' En presencia de sustancias reductoras como algunos hidruros o incluso otros aldehídos pueden ser reducidos al alcohol correspondiente mientras que oxidantes fuertes los transforman en el correspondiente ácido carboxílico. Con cetonas que portan un hidrógeno sobre un carbono sp³ en presencia de catalizadores ácidos o básicos se producen condensaciones tipo aldol. Con alcoholes o tioles en presencia de sustancias higroscópicas se pueden obtener acetales por condensación. Como la reacción es reversible y los aldehídos se recuperan en medio ácido y presencia de agua esta reacción se utiliza para la protección del grupo funcional. Síntesis Existen varios métodos para preparar aldehídos, pero la tecnología dominante es la hidroformilación. Ilustrativa es la generación de butiraldehído por hidroformilación de propeno: H2 + CO + CH3CH=CH2 -> CH3CH2CH2CHO Por oxidación de alcoholes primarios Se pueden obtener a partir de la oxidación suave de los alcoholes primarios. Esto se puede llevar a cabo calentando el alcohol en una disolución ácida de dicromato de potasio (también hay otros métodos en los que se emplea Cr en el estado de oxidación +6). El dicromato se reduce a (de color verde). También mediante la oxidación de Swern, en la que se emplea dimetilsulfóxido, (DMSO), dicloruro de oxalilo, , y una base. Esquemáticamente el proceso de oxidación es el siguiente: [O] + CH3(CH2)9OH -> CH3(CH2)8CHO + H2O Por carbonilación. Por oxidación de halogenuros de alquilo (Oxidación de Kornblum) Por reducción de ácidos carboxílicos o sus derivados (ésteres, halogenuros de alquilo). Rutas oxidativas Los aldehídos se generan comúnmente por oxidación de alcoholes. En la industria, el formaldehído se produce a gran escala por oxidación del metanol. El oxígeno es el reactivo de elección, por ser "verde" y barato. En el laboratorio, se utilizan agentes oxidantes más especializados, pero los reactivos de cromo(VI) son muy populares. La oxidación puede conseguirse calentando el alcohol con una solución acidificada de dicromato potásico. En este caso, el exceso de dicromato oxidará aún más el aldehído a un ácido carboxílico, por lo que o bien el aldehído es destilado tal como se forma (si volátil) o se utilizan reactivos más suaves como el PCC. [O] + CH3(CH2)9OH -> CH3(CH2)8CHO + H2O La oxidación de alcoholes primarios para formar aldehídos puede lograrse en condiciones más suaves y sin cromo empleando métodos o reactivos como ácido IBX, periodinano de Dess-Martin, oxidación de Swern, TEMPO o la oxidación de Oppenauer. Otra ruta de oxidación significativa en la industria es el proceso Wacker, por el que el etileno se oxida a acetaldehído en presencia de catalizadores de cobre y paladio (el acetaldehído también se produce a gran escala por hidratación del acetileno). A escala de laboratorio, los α-hidroxiácidos se utilizan como precursores para preparar aldehídos mediante escisión por oxidativa. Síntesis de aldehídos aromáticos Reacción de Gattermann-Koch Reacción de Hoesch Reacción de Reimer-Tiemann Reacción de Vilsmeier-Haack Métodos de especialidad Usos Los aldehídos se utilizan principalmente para la fabricación de resinas, plásticos, solventes, pinturas, perfumes, esencias. Los aldehídos están presentes en numerosos productos naturales y grandes variedades de ellos son de la propia vida cotidiana. La glucosa por ejemplo existe en una forma abierta que presenta un grupo aldehído. El acetaldehído formado como intermedio en la metabolización se cree responsable en gran medida de los síntomas de la resaca tras la ingesta de bebidas alcohólicas. El formaldehído es un conservante que se encuentra en algunas composiciones de productos cosméticos. Sin embargo esta aplicación debe ser vista con cautela ya que en experimentos con animales el compuesto ha demostrado un poder cancerígeno. También se utiliza en la fabricación de numerosos compuestos químicos como la baquelita, la melamina, etc. Referencias Bibliografía Grupos funcionales
43_0
Agujero de gusano
En física, un agujero de gusano, también conocido como puente de Einstein-Rosen, es una estructura hipotética asociada a un espacio-tiempo cuya topología es múltiplemente conexa. Dicha estructura es una solución posible de las ecuaciones de campo de Einstein de la relatividad general, que esencialmente consiste en un puente a través del espacio y el tiempo. Un agujero de gusano tiene por lo menos dos extremos conectados a una única garganta, a través de la cual podría desplazarse la materia. Hasta la fecha no se ha hallado ninguna evidencia de que el espacio-tiempo conocido contenga estructuras de este tipo, por lo que en la actualidad es solo una posibilidad teórica en la física. Cuando una estrella supergigante roja explota, arroja materia al exterior, de modo que acaba siendo de un tamaño inferior y se convierte en una estrella de neutrones. Pero también puede suceder que se comprima tanto que absorba su propia energía en su interior y desaparezca dejando un agujero negro en el lugar que ocupaba. Este agujero tendría una gravedad tan grande que ni siquiera la radiación electromagnética podría escapar de su interior. Estaría rodeado por una frontera esférica, llamada horizonte de sucesos. La luz traspasaría esta frontera para entrar, pero no podría salir, por lo que el agujero visto desde grandes distancias debería ser completamente negro (aunque Stephen Hawking postuló que ciertos efectos cuánticos generarían la llamada radiación de Hawking). Dentro del agujero los astrofísicos conjeturan que se forma una especie de cono sin fondo. En 1994, el telescopio espacial Hubble detectó la presencia de uno muy denso en el centro de la galaxia elíptica M87, pues la alta aceleración de gases en esa región indica que debe haber un objeto 3500 millones de veces más masivo que el Sol. Finalmente, este agujero podría terminar por absorber a la galaxia entera. La hipótesis sugiere que, de un lado, hay un agujero negro que absorbe la materia, pero, por el otro lado, habría un agujero blanco que expulsaría todo lo que traga el negro. El primer científico en advertir de la existencia de agujeros de gusano fue el austríaco Ludwig Flamm, en 1916. En este sentido, la hipótesis del agujero de gusano es una actualización de la decimonónica teoría de una cuarta dimensión espacial que suponía —por ejemplo—, dado un cuerpo toroidal en el que se podían encontrar las tres dimensiones espaciales comúnmente perceptibles, una cuarta dimensión espacial que abreviara las distancias y, de esa manera, los tiempos de viaje. Esta noción inicial fue planteada de manera más científica en 1921 por el matemático alemán Hermann Weyl, sin embargo, no usó el término "agujero de gusano" (habló de "tubos unidimensionales"), cuando este relacionó sus análisis de la masa en términos de la energía de un campo electromagnético con la teoría de la relatividad de Albert Einstein publicada en 1916. En la actualidad, la teoría de cuerdas admite la existencia de más de tres dimensiones espaciales (ver hiperespacio), pero esas dimensiones extra estarían compactadas a escalas subatómicas (según la teoría de Kaluza-Klein), por lo que parece muy difícil (si no imposible) aprovecharlas para emprender viajes en el espacio y el tiempo. Origen del nombre El término «agujero de gusano» fue introducido por el físico teórico estadounidense John Wheeler en 1957 (inspirado en la obra de Hermann Weyl) y mediante un artículo coescrito con Charles Misner: Proviene de la siguiente analogía usada para explicar el fenómeno: si el universo es la piel de una manzana, y un gusano viaja sobre su superficie, la distancia de un punto de la manzana a su antípoda es igual a la mitad de la circunferencia de la manzana, siempre que el gusano permanezca sobre la superficie de ésta. Pero si en vez de esto, el gusano cavara un agujero directamente a través de la manzana, la distancia que tendría que recorrer sería considerablemente menor, ya que la distancia más cercana entre dos puntos es una línea recta que une a ambos. Tipos de agujero de gusano Los agujeros de gusano del intrauniverso conectan una posición de un universo con otra posición del mismo universo en un tiempo diferente. Un agujero de gusano debería poder conectar posiciones distantes en el universo por plegamientos espaciotemporales, de manera que permitiría viajar entre ellas en un tiempo menor que el que tomaría hacer el viaje a través del espacio normal. Los agujeros de gusano del interuniverso asocian un universo con otro diferente y se denominan «agujeros de gusano de Schwarzschild». Esto permite especular sobre si tales agujeros de gusano podrían usarse para viajar de un universo a otro paralelo. Otra aplicación de un agujero de gusano podría ser el viaje en el tiempo. En ese caso, sería un atajo para desplazarse de un punto espaciotemporal a otro. En la teoría de cuerdas, un agujero de gusano es visto como la conexión entre dos D-branas, donde las bocas están asociadas a las branas y conectadas por un tubo de flujo. Se cree que los agujeros de gusano son una parte de la espuma cuántica o espaciotemporal. Otra clasificación: Los agujeros de gusano euclídeos, estudiados en física de partículas. Los agujeros de gusano de Lorentz, principalmente estudiados en relatividad general y en gravedad semiclásica. Dentro de estos destacan los agujeros de gusano atravesables, un tipo especial de agujero de gusano de Lorentz que permitiría a un ser humano viajar de un lado al otro del agujero. Hasta el momento se ha teorizado sobre diferentes tipos de agujeros de gusano, principalmente como soluciones matemáticas a la cuestión. Esencialmente, estos tipos de agujero de gusano son: El agujero de gusano de Schwarzschild supuestamente formado por un agujero negro de Schwarzschild, que se considera infranqueable. El agujero de gusano supuestamente formado por un agujero negro de Reissner-Nordstrøm o Kerr-Newman, que resultaría franqueable, pero en una sola dirección, y que podría contener un agujero de gusano de Schwarzschild. El agujero de gusano de Lorentz, que posee masa negativa y se estima franqueable en ambas direcciones (pasado y futuro). Agujeros de gusano de Schwarzschild Los agujeros de gusano de Lorentz, conocidos como agujeros de gusano de Schwarzschild o puentes de Einstein-Rosen, son nexos que unen áreas de espacio que puede ser modeladas como soluciones de vacío en las ecuaciones de campo de Einstein por unión de un modelo de agujero negro y uno de agujero blanco. Esta solución fue hallada por Albert Einstein y su compañero Nathan Rosen, que publicó primero el resultado en 1935. Sin embargo, en 1962, John A. Wheeler y Robert W. Fuller publicaron un artículo en el que divulgaban la demostración de que este tipo de agujero de gusano es inestable y se desintegraría instantáneamente tan pronto como se formase. Antes de que los problemas de estabilidad de los agujeros de gusano de Schwarzschild se hiciesen evidentes, se propuso que los cuásares podían ser agujeros blancos, de modo que formaban las zonas terminales de los agujeros de gusano de este tipo. Sin embargo, investigaciones recientes descartan que los cuásares sean equiparables a los agujeros blancos. Los agujeros de gusano de Schwarzschild inspiraron a Kip Thorne a imaginar el tránsito por ellos mediante la sujeción de su garganta y su apertura por medio de materia exótica (de masa y energía negativas). Agujeros de gusano practicables Los agujeros de gusano practicables de Lorentz, también llamados atravesables, permitirían viajar no solo de una parte del universo a otra, sino incluso de un universo a otro. Los agujeros de gusano conectan dos puntos del espacio-tiempo, por lo que permitirían el viaje tanto en el espacio como en el tiempo. En la teoría de la relatividad general, la posibilidad de atravesar agujeros de gusano fue demostrada por primera vez por Kip S. Thorne y su graduado Mike Morris en un artículo publicado en 1988. El tipo de agujero de gusano atravesable que ellos descubrieron se mantendría abierto por una especie de concha esférica de materia exótica denominada agujero de gusano de Morris-Thorne. Posteriormente se han descubierto otros tipos de agujeros de gusano atravesables, como uno que se mantiene abierto por cuerdas cósmicas, ya hipotetizado antes por Matt Visser en un artículo publicado en 1989. Base teórica Definición La definición topológica de agujero de gusano no es nada intuitiva. Se dice que en una región compacta del espacio-tiempo existe un agujero de gusano cuando su conjunto frontera es trivial desde el punto de vista topológico, pero su interior no es simplemente conexo. Formalizar esta idea conduce a definiciones como la siguiente, tomada del Lorentzian Wormholes, de Matt Visser: Si un espacio-tiempo de Lorentz contiene una región compacta Ω y si la topología de Ω es de la forma Ω ~ R x Σ, donde Σ es una 3-variedad de topología no trivial, cuya frontera tiene topología de la forma dΣ ~ S², y si además las hipersuperficies Σ son de tipo espacial, entonces la región Ω contiene un agujero de gusano intrauniversal cuasipermanente. Caracterizar agujeros de gusano del interuniverso es más difícil. Por ejemplo, podemos imaginar un universo recién nacido conectado a su progenitor por un ombligo estrecho. Cabría considerar el ombligo como la garganta de un agujero de gusano, por la cual el espacio-tiempo está conectado. Plausibilidad Se sabe que los agujeros de gusano de Lorentz son posibles dentro de la relatividad general, pero la posibilidad física de estas soluciones es incierta. Incluso, se desconoce si la teoría de la gravedad cuántica, que se obtiene al condensar la relatividad general con la mecánica cuántica, permitiría la existencia de estos fenómenos. La mayoría de las soluciones conocidas de la relatividad general que permiten la existencia de agujeros de gusano atravesados requieren la existencia de materia extraña, una sustancia teórica que contiene energía de densidad negativa. Sin embargo, no ha sido matemáticamente probado que este sea un requisito absoluto para este tipo agujeros de gusano atravesados ni se ha establecido que la materia exótica no puede existir. Aún no se sabe empíricamente si existen agujeros de gusano. Una solución a las ecuaciones de la relatividad general (tal como la que encontrara L. Flamm) que hiciera posible la existencia de un agujero de gusano sin el requisito de una materia exótica —sustancia teórica que poseería una densidad de energía negativa— no ha sido todavía verificada. Muchos físicos, incluido Stephen Hawking (con su conjetura de protección cronológica), consideran que a causa de las paradojas (¿o acaso aporías?) un viaje en el tiempo a través de un agujero de gusano implicaría que existiera algo fundamental en las leyes de la física que impida tales fenómenos (ver censura cósmica). En marzo de 2005, Amos Ori visualizó un agujero de gusano que permitía viajar en el tiempo sin requerir materia exótica y satisfaciendo todas las condiciones energéticas. La estabilidad de esta solución es incierta, por lo que sigue sin quedar claro si se requeriría una precisión infinita para que se formase y permitiese el viaje en el tiempo y si los efectos cuánticos protegerían la secuencia cronológica del tiempo en este caso. Métrica de los agujeros de gusano Las teorías sobre la métrica de los agujeros de gusano describen la geometría del espacio-tiempo de un agujero de gusano y sirven de modelos teóricos para el viaje en el tiempo. Un ejemplo simple de la métrica de un agujero de gusano atravesado podría ser el siguiente: Un tipo de métrica de agujero de gusano no atravesado es la solución de Schwarzschild: representado por primera vez por Ellis como un caso especial de drenaje de Ellis. El puente de Einstein-Rosen se describió en un artículo publicado en julio de 1935. Para la solución estática simétricamente esférica de Schwarzschild. ( = momento apropiado, = 1) Si uno reemplaza por según El espacio de cuatro dimensiones se describe matemáticamente mediante dos partes congruentes u "hojas", que corresponden a > 0 y < 0, que están unidas por un hiperplano o = 0 en el que desaparece. Llamamos a tal conexión entre las dos hojas un "puente" (autores=A. Einstein, N. Rosen, "The Particle Problem in the General Theory of Relativity") Para la combinación gravedad y electricidad, Einstein y Rosen derivaron la solución esférica simétrica de Schwarzschild ( = carga eléctrica) Las ecuaciones de campo sin denominadores en el caso en que = 0 se pueden escribir Para eliminar las singularidades, si se reemplaza por según la ecuación: y con = 0 se obtiene La solución está libre de singularidades para todos los puntos finitos en el espacio de las dos hojas (autores=A. Einstein, N. Rosen, "The Particle Problem in the General Theory of Relativity") Agujeros de gusano y viajes en el tiempo En teoría, un agujero de gusano podría permitir viajar en el tiempo a través del espacio-tiempo. Esto podría llevarse a cabo acelerando el extremo final de un agujero de gusano a una velocidad relativamente alta respecto de su otro extremo. La dilatación de tiempo relativista resultaría en una boca del agujero de gusano acelerada envejeciendo más lentamente que la boca estacionaria, visto por un observador externo, de forma parecida a lo que se observa en la paradoja de los gemelos. Sin embargo, el tiempo pasa diferente a través del agujero de gusano respecto del exterior, por lo que los relojes sincronizados en cada boca permanecerán sincronizados para alguien viajando a través del agujero de gusano, sin importar cuanto se muevan las bocas. Esto quiere decir que cualquier cosa que entre por la boca acelerada del agujero de gusano podría salir por la boca estacionaria en un punto temporal anterior al de su entrada si la dilatación de tiempo ha sido suficiente. Por ejemplo, supongamos que dos relojes en ambas bocas muestran el año 2000 antes de acelerar una de las bocas y, tras acelerar una de las bocas hasta velocidades cercanas a la de la luz, juntamos ambas bocas cuando en la boca acelerada el reloj marca el año 2017 y en la boca estacionaria marca el año 2013. De esta forma, un viajero que entrara por la boca acelerada en este momento saldría por la boca estacionaria cuando su reloj también marcara el año 2013, en la misma región del espacio pero cuatro años en el pasado. Tal configuración de agujeros de gusano permitiría a una partícula de la Línea de universo del espacio-tiempo formar un circuito espacio-temporal cerrado, conocido como curva cerrada de tipo tiempo. El curso a través de un agujero de gusano a través de una curva cerrada de tipo tiempo hace que un agujero de gusano tenga características de hueco temporal. Se considera que es prácticamente imposible convertir a un agujero de gusano en una «máquina del tiempo» de este modo. Algunos análisis usando aproximaciones semiclásicas que incorporan efectos cuánticos en la relatividad general señalan que una retroalimentación de partículas virtuales circularían a través del agujero de gusano con una intensidad en continuo aumento, destruyéndolo antes de que cualquier información pudiera atravesarlo, de acuerdo con lo que postula la conjetura de protección cronológica. Esto ha sido puesto en duda, sugiriendo que la radiación se dispersaría después de viajar a través del agujero de gusano, impidiendo así su acumulación infinita. Kip S. Thorne mantiene un debate al respecto en su libro Agujeros negros y tiempo curvo (Black Holes and Time Warps). También se ha descrito el denominado Anillo Romano, una configuración formada por más de un agujero de gusano. Este anillo parece permitir una línea de tiempo cerrado con agujeros de gusano estables cuando es analizado bajo el prisma de la gravedad semiclásica, pero sin una teoría completa de la gravedad cuántica aún no se puede saber si dicha aproximación semiclásica es aplicable en este caso. Viajes a velocidades superiores a la de la luz La relatividad especial solo tiene aplicación localmente. Los agujeros de gusano — si en efecto existiesen— permitirían teóricamente el viaje superluminal (más rápido que la luz) asegurando que la velocidad de la luz no es excedida localmente en ningún momento. Al viajar a través de un agujero de gusano, las velocidades son subluminales (por debajo de la velocidad de la luz). Si dos puntos están conectados por un agujero de gusano, el tiempo que se tarda en atravesarlo sería menor que el tiempo que tarda un rayo de luz en hacer el viaje por el exterior del agujero de gusano. Sin embargo, un rayo de luz viajando a través del agujero de gusano siempre alcanzaría al viajero. A modo de analogía, rodear una montaña por el costado hasta el lado opuesto a la máxima velocidad puede tomar más tiempo que cruzar por debajo de la montaña a través de un túnel a menor velocidad, ya que el recorrido es más corto. Subatómicamente se hipotetiza la existencia de una espuma cuántica o de una espuma de espacio-tiempo, avanzando con la conjetura, se hipotetiza la posibilidad de existencia de agujeros de gusano en la misma, aunque si estos existieran serían altamente inestables y solo se podrían estabilizar invirtiendo enormes cantidades de energía (por ejemplo con aceleradores de partículas gigantescos que puedan crear un plasma de quarks-gluones). Viaje interuniversal Una posible resolución de las paradojas resultantes de los viajes en el tiempo a través de los agujeros de gusano se basa en la interpretación de la mecánica cuántica muchos mundos. En 1991, David Deutsch demostró que la teoría cuántica es totalmente coherente (en el sentido de que la llamada matriz de densidad puede estar libre de discontinuidades) en períodos de tiempo con curvas cerradas de tiempo. Sin embargo, más tarde se demostró que dicho modelo de curva de tiempo cerrado puede tener inconsistencias internas, ya que conducirá a fenómenos extraños como la distinción de estados cuánticos no ortogonales y la distinción de la mezcla adecuada e inadecuada. Por consiguiente, se evita el bucle de retroalimentación positiva destructiva de partículas virtuales que circulan a través de una máquina de tiempo de agujero de gusano, un resultado indicado por cálculos semi-clásicos. Una partícula que regresa del futuro no regresa a su universo de origen sino a un universo paralelo. Esto sugiere que una máquina de tiempo de agujero de gusano con un salto de tiempo extremadamente corto es un puente teórico entre universos paralelos contemporáneos. Debido a que una máquina del tiempo de agujero de gusano introduce un tipo de no linealidad en la teoría cuántica, este tipo de comunicación entre universos paralelos es consistente con la propuesta de Joseph Polchinski de un teléfono Everett (llamado así por Hugh Everett) en la formulación de Steven Weinberg de la mecánica cuántica no lineal. La posibilidad de comunicación entre universos paralelos se ha denominado viajes interuniversales. Véase también Agujero negro Agujero negro supermasivo Microagujero negro Agujero negro de Schwarzschild Agujero negro en rotación Agujero blanco Espuma cuántica John Wheeler Kip S. Thorne Kepler 452b Gravastar Conjetura de protección cronológica Multiverso Espacio-Tiempo Referencias Bibliografía Einstein, Albert and Rosen, Nathan. The Particle Problem in the General Theory of Relativity. Physical Review 48, 73 (1935). Fuller, Robert W. and Wheeler, John A.. Causality and Multiply-Connected Space-Time. Physical Review 128, 919 (1962). Morris, Michael S., Thorne, Kip S., and Yurtsever, Ulvi. Wormholes, Time Machines, and the Weak Energy Condition. Physical Review Letters 61, 1446–1449 (1988). Morris, Michael S. and Thorne, Kip S.. . American Journal of Physics 56, 395-412 (1988). A more concise review. Visser, Matt. Traversable wormholes: Some simple examples. Physical Review D 39, 3182–3184 (1989). Enlaces externos La Física de los Viajes en el Tiempo a través de un Agujero de gusano por Raúl Isea. Creating a Traversable Wormhole por Mohammad Mansouryar . ¿Qué es exactamente un agujero de gusano? respuesta de Richard F. Holman, William A. Hiscock y Matt Visser . ¿Por qué agujeros de gusano? por Matt Visser . Agujeros de gusano en la relatividad general por Soshichi Uchii . Nuevos agujeros de gusano mejorados por John G. Cramer . Tiempo, viaje en el tiempo y agujeros de gusano atravesados incluye un foro de discusión . Agujeros blancos y agujeros de gusano presenta una descripción de los agujeros de gusano de Schwarzschild con gráficos y animaciones, por Andrew J. S. Hamilton . Wormhole on arxiv.org Scientific American Magazine (December 2005 Issue) Wormhole Un juego sobre agujeros de gusano . Wormhole MUD - A Sci-Fi Multi-User Dungeon Materia exótica Objetos astronómicos hipotéticos Recursos de la ciencia ficción Viaje en el tiempo
46_0
Alismataceae
Las alismatáceas (nombre científico Alismataceae Vent.) son una familia de plantas monocotiledóneas del orden Alismatales. Es utilizada por sistemas de clasificación modernos como el sistema de clasificación APG III (2009) y el APWeb (2001 en adelante). Su circunscripción ha cambiado en los últimos años, el antiguo APG II en el 2003 la definió de forma estricta, ahora tanto el APG III como el APWeb la definen en forma amplia ("Alismataceae sensu lato") incluyendo los géneros antes comprendidos en Limnocharitaceae, para que la familia se mantenga monofilética. Como aquí definida comprende 15 géneros ampliamente distribuidos, especialmente en áreas templadas del Hemisferio Norte. Son hierbas perennes, palustres o acuáticas, laticíferas. Poseen hojas flotantes o aéreas, pecioladas con una vena media prominente, pero las especies son muchas veces dificultosas de determinar porque hay mucha variación en la morfología de la hoja, que tiene que ver con parámetros ambientales como la profundidad del agua, su composición química y su caudal, incluso suelen aparecer muchas morfologías de hoja dentro de una misma planta (por ejemplo, las hojas sumergidas son usualmente lineales, mientras que las flotantes o emergentes son pecioladas). Las flores son de monocotiledóneas, con sépalos y pétalos, los pétalos abigarrados en el pimpollo. Cuando los sexos están separados, las flores femeninas tienen 6 o más carpelos, libres o soldados en la base, y las flores masculinas tienen muchas anteras extrorsas. Muchas veces las inflorescencias están constituidas por verticilos bracteados de flores. En las semillas se observa claramente que el embrión está fuertemente curvado. Descripción Introducción teórica en Terminología descriptiva de las plantas Hierbas perennes (raramente anuales), rizomatosas, acuáticas (entonces flotantes o emergentes) o de marismas, con laticíferos, el látex blanco. Tejidos más o menos aerenquimatosos. El tallo es un cormo o rizoma, el último a veces portando tubérculos. Usualmente sin pelos. Hojas alternas, espirales o dísticas, usualmente más o menos basales, simples, de margen entero, usualmente pecioladas (raramente sésiles), usualmente con una lámina bien desarrollada, con venación paralela, o a veces palmada según Judd 2007 (reticulada según Simpson 2005), envainadoras en la base. A veces polimórficas, con las sumergidas más angostas, y las flotantes o emergentes más amplias, lineales a ovadas a triangulares sagitadas o hastadas. Sin estípulas. Pequeñas escamas presentes en el nodo dentro de la vaina de la hoja. Las especies son muchas veces dificultosas de identificar debido a la extensiva variación en la morfología de la hoja, que se correlaciona con parámetros ambientales como la intensidad de la luz, la profundidad del agua, la química del agua, y el caudal (Adams y Godfrey 1961). Las hojas sumergidas son usualmente lineales, mientras que las flotantes o emergentes son pecioladas con lámina elíptica a ovada con una base aguda a sagitada. Muchas formas de hojas diferentes pueden aparecer en la misma planta. Inflorescencias determinadas, pero muchas veces pareciendo indeterminadas, con ramas o flores muchas veces más o menos verticiladas, terminales, en el ápice de un escapo, siendo un racimo o una panícula (a veces como una umbela). Sin espata. Flores bisexuales o unisexuales (plantas entonces monoicas), radiales, subsésiles a pediceladas, bracteadas, hipóginas, el receptáculo es chato o expandido y convexo. El perianto en dos verticilos y diferenciado en cáliz y corola ("diclamídeo"), trímero, sin hipanto. 3 sépalos, separados, imbricados. 3 pétalos, separados, imbricados y arrugados, usualmente blancos o rosas, caducos. Estambres usualmente 6, 9, o numerosos (raramente 3), filamentos separados, libres de otras partes de la flor, en un verticilo o en dos verticilos (muchas veces en pares). Las anteras son longitudinales, de dehiscencia extrorsa o latrorsa. Polen usualmente de 2 a poliporado. Carpelos 3, 6, o numerosos, separados, ovario súpero, con placentación más o menos basal (raramente marginal). 1 estilo y 1 estigma diminuto, los dos terminales. Óvulos pocos a más comúnmente 1 por carpelo (raramente numerosos), anátropos, bitégmicos. Nectarios en la base de los carpelos, estambres, o piezas del perianto. El fruto es un agregado de aquenios (o folículos que se abren basalmente). Semillas sin albúmina. Embrión fuertemente curvado, sin endosperma. Ver Haynes et al. (1998) para más información de la familia. Ecología Ampliamente distribuidas, especialmente en regiones templadas del Hemisferio Norte. Plantas de marismas de agua dulce, pantanos, lagos, ríos y corrientes de agua. Las vistosas flores de Alismatacae son polinizadas por varios insectos colectores de polen (muchas veces abejas y moscas). En Alisma y Echinodorus las flores son bisexuales, mientras que usualmente son unisexuales en Sagittaria. Los aquenios son muchas veces dispersados por agua, flotan debido a la presencia de tejido esponjoso y son resinosos en la superficie exterior. También son comidos y así dispersados por aves acuáticas. Filogenia Alismataceae se define en sentido amplio (incluyendo Limnocharitaceae, ver Pichon 1946, Thorne 1992) y se considera monofilética sobre la base de caracteres morfológicos y de ADN (Dahlgren et al. 1985, Les y Haynes 1995, Soros y Les 2002). Los géneros con aquenios y solo un óvulo basal por carpelo (por ejemplo Alisma, Sagittaria, y Echinodorus) pueden formar un subgrupo monofilético (Chase et al. 1993, 1995b). Alismataceae (y Butomaceae) fueron alguna vez consideradas monocotiledóneas primitivas (Cronquist 1981, Hutchinson 1973), debido a sus estambres separados y numerosos y sus carpelos, en flores que son superficialmente como las de Ranunculaceae. Sin embargo, los estudios del desarrollo y anatómicos han indicado que estos numerosos estambres son en realidad un aumento secundario. Taxonomía La familia fue reconocida por el APG III (2009), el Linear APG III (2009) le asignó el número de familia 32. La familia ya había sido reconocida por el APG II (2003). Sinónimos (según el APWeb): Damasoniaceae Nakai, Limnocharitaceae Cronquist 15 géneros, 100 especies. Los géneros más representados son Echinodorus (45 especies), y Sagittaria (35 especies). La lista de géneros, a enero de 2009: Alisma L., Sp. Pl.: 342 (1753). Astonia S.W.L.Jacobs, Telopea 7: 140 (1997). Baldellia Parl., Nuov. Gen. Sp. Monocot.: 57 (1854). Burnatia Micheli in A.L.P.P.de Candolle & A.C.P.de Candolle, Monogr. Phan. 3: 81 (1881). Caldesia Parl., Fl. Ital. 3: 598 (1860). Damasonium Mill., Gard. Dict. Abr. ed. 4 (1754). Echinodorus Rich., Mém. Mus. Hist. Nat. 1: 365 (1815). Limnophyton Miq., Fl. Ned. Ind. 3: 242 (1856). Luronium Raf., Autik. Bot.: 63 (1840). Ranalisma Stapf, Hooker's Icon. Pl. 27: t. 2652 (1900). Sagittaria Rupp. ex L., Sp. Pl.: 993 (1753). Wiesneria Micheli in A.L.P.P.de Candolle & A.C.P.de Candolle, Monogr. Phan. 3: 82 (1881). Géneros de Limnocharitaceae, incluidos en Alismataceae sensu lato por el APWeb: Butomopsis Kunth, Enum. Pl. 3: 164 (1841). Hydrocleys Rich., Mém. Mus. Hist. Nat. 1: 368 (1815). (nota: Hydrocleis es sinónimo) Limnocharis Humb. & Bonpl., Pl. Aequinoct. 1: 116 (1808). Importancia económica Sagittaria, Alisma, Echinodorus e Hydrocleys proveen ornamentales de estanques y acuarios. Los rizomas de Sagittaria'' son comestibles. Algunos taxones de esta familia son utilizados como alimento por pueblos indígenas. Referencias Referencias citadas Enlaces externos
47_0
Agavoideae
Las agavóideas (nombre científico Agavoideae) forman una subfamilia de plantas monocotiledóneas distribuidas más o menos por todo el mundo y especialmente diversas en México, donde Agave tiene importantes usos económicos (por ejemplo es utilizado para elaborar tequila y mezcal). Muchos miembros de esta subfamilia son arborescentes, como el árbol de Josué (una especie de Yucca). Las hojas son muchas veces grandes, xeromórficas, fibrosas o raramente suculentas, en rosetas en la base o el final de las ramas. Las flores presentan 6 tépalos y 6 estambres, y el ovario es súpero o ínfero. La subfamilia fue reconocida por sistemas de clasificación modernos como el sistema de clasificación APG III (2009) y el APWeb (2001 en adelante), y ya había sido reconocida por el APG II que dejaba como opción excluirla de un Asparagaceae sensu stricto como la familia Agavaceae (ver Asparagales para una discusión sobre estos clados). Descripción Usualmente hierbas grandes arrosetadas, o árboles, o arbustos, o subarbustos. Rizomatosas, algunas con tallos con crecimiento secundario anómalo. Presentan cristales de oxalato de calcio de tipo rafidio y saponinas esteroideas. Pelos simples. Son acaulescentes (carecen de tallo salvo el que da las flores y frutos), o poseen rizoma, o bulbo, o son arborescentes. En los taxones con tallos, son ramificados simpodiales. Hojas muchas veces grandes, xeromórficas, fibrosas o raramente suculentas, alternas y espirales, en rosetas en la base o el final de las ramas, simples, de margen entero a espinoso-serrado, y usualmente con una espina aguda en el ápice, con venación paralela, los haces vasculares asociados con fibras gruesas y fuertes, envainadoras en la base, sin estípulas. La inflorescencia es una panícula, un racimo, o una espiga en algunas que producen plántulas vegetativas. Flores usualmente bisexuales, radiales a ligeramente bilaterales, muchas veces vistosas, bracteadas, hipóginas o epíginas. El perianto es biseriado (posee dos verticilos), homoclamídeo (6 tépalos iguales dispuestos en dos verticilos de 3 piezas cada uno), separados a connados, y perianto entonces tubular a acampanado, imbricado, petaloideos, no punteados, y usualmente blancos a amarillos. Hipanto presente en algunas. 6 estambres, filamentos separados, a veces adnatos al perianto, filamentos largos y delgados a cortos y gruesos. Anteras dorsifijas, versátiles, de dehiscencia longitudinal e introrsa, tetrasporangiadas, ditecas. Polen monosulcado. 3 carpelos, connados, 3 lóculos, ovario súpero o ínfero, con placentación axilar, estilo solitario, estigma diminuto, capitado a 3-lobado. Óvulos más o menos numerosos en cada lóculo y en 2 filas por carpelo, anátropos, bitégmicos. Presentan nectarios en los septos del ovario. El fruto es una cápsula loculicida o septicida, o indehiscente, pero a veces es carnoso y de tipo baya. Las semillas son aplanadas, la cubierta seminal con una costra negra (con fitomelaninas) y las capas interiores más o menos colapsadas. El cariotipo es usualmente de 5 cromosomas grandes y 25 cromosomas pequeños. Ver Verhoek (1998) para información adicional sobre la familia. Ecología Ampliamente distribuidas en regiones templado-cálidas a tropicales del Nuevo Mundo, y especialmente diversas en México, pero introducidas en el Viejo Mundo. Características de hábitats áridos y semiáridos. Muchas veces tienen fotosíntesis de tipo CAM. Las vistosas flores de Yucca y Hesperoyucca son visitadas por pequeñas polillas del género Tegeticula que tienen una relación simbiótica con estas plantas, las polillas hembra transportan el polen y oviponen en los ovarios (las larvas que se desarrollan dentro se comen algunas semillas). Otros géneros son polinizados por pájaros (muchas especies de Beschornea) o murciélagos (muchas especies de Agave) o abejas. Las semillas negras son típicamente dispersadas por viento, y las especies de frutos carnosos son dispersadas por animales. Filogenia Agavoideae está relacionada con Scilloideae (Hyacinthaceae) y Brodiaeoideae (Themidaceae), y la posición filogenética de algunos géneros es problemática. Sin embargo, tanto los caracteres fenotípicos como del ADN sostienen la monofilia de la subfamilia (Bogler y Simpson 1995, 1996, Bogler et al. 2006, Chase et al. 2000, Pires et al. 2004). Camassia, Hastingsia, y Chlorogalum (usualmente tratadas en Hyacinthaceae, como la subfamilia Chlorogaloideae) y Hosta (usualmente ubicada en Hostaceae) están incluidas aquí (ver Chase et al. 1995a, 2000, Bogler y Simpson 1995, 1996, Bogler et al. 2006, Pfosser y Speta 1999). Hosta es un género de hierbas rizomatosas con hojas de lámina ancha con venas paralelas prominentes, racimos de un solo lado de flores de tipo lirio, y cápsulas con semillas negras. Estos 4 géneros también tienen un cariotipo distintivo bimodal. Los datos moleculares (Chase et al. 1995a, 2000, Rudall et al. 1997b) también sostienen la inclusión aquí de Anthericum, Chlorophytum y afines (usualmente ubicados en Anthericaceae), un grupo de hierbas rizomatosas con hojas en roseta basal, lo que lleva a un Agavoideae "en sentido amplio", que no es fácil de caracterizar. Las agavóideas leñosas son usualmente divididas entre el clado de Yucca (que contiene por ejemplo a Yucca, Hesperaloe, Hesperoyucca) con un ovario súpero y anteras pequeñitas, y el clado de Agave (que contiene por ejemplo a Agave, Furcraea, Manfreda, Polianthes), con un ovario ínfero y anteras elongadas (Dahlgren et al. 1985). Los dos son monofiléticos (Bogler y Simpson 1995, 1996). La subfamilia muchas veces ha sido circunscripta de una forma más amplia (Cronquist 1981), incluyendo géneros que aquí son incluidos en Nolinoideae (antes Ruscaceae, Nolina, Dasylirion, Beaucarnea, Dracaena, y Sansevieria), y Cordyline (en Lomandroideae, antes Laxmanniaceae). Una subfamilia así definida es morfológicamente heterogénea, unificada solo por el hábito leñoso, y claramente polifilética (Dahlgren et al. 1985, Chase et al. 1995a, b, Bogler y Simpson 1995, 1996, Rudall et al. 1997a). Taxonomía La subfamilia fue reconocida por el APG III (2009). La subfamilia ya había sido reconocida por el APG II (2003) que dejaba como opción excluirla de un Asparagaceae sensu stricto como la familia Agavaceae. La subfamilia consta de 25 géneros y 637 especies (Judd et al. 2007). Los géneros más representados son Agave (300 especies), Chlorophytum (150 especies), Anthericum (65 especies), Yucca (40 especies) y Hosta (40 especies). Géneros Agave Allibertia Anemarrhena Anthericum Behnia Beschorneria Bravoa Calodracon Camassia Chamaescilla Charlwoodia Chlamydia Chlorogalum Chlorophytum Clistoyucca Cohnia Comospermum Cordyline Delpinoa Dracaenopsis Echeandia Fourcroea Furcraea Furcroya Ghiesbreghtia Herreria Hesperaloe Hesperocallis Hesperoyucca Leucocrinum Littaea Manfreda Pasithea Polianthes Prochnyanthes Pseudobravoa Sinonimia Estos nombres son sinónimos de alguna de las tribus de Agavoideae, según el APWeb (visitado en enero de 2009): Anemarrhenaceae, Anthericaceae, Behniaceae, Chlorogalaceae, Funkiaceae, Herreriaceae, Hesperocallidaceae, Hostaceae, Nolinaceae, Yuccaceae. Importancia económica Muchas especies de Agave, Furcraea, y Yucca son usadas como fuente de fibra, por ejemplo las hojas de Agave sisalana. Agave fourcroydes es la fuente del henequén. Unas pocas especies de Agave se fermentan para producir tequila (los tallos con flores jóvenes fermentados y destilados de Agave tequilana) y mezcal. Tanto Agave como Yucca son utilizadas en la manufactura de contraceptivos orales (debido a sus saponinas esteroideas). Algunas culturas indígenas utilizan plantas de esta familia como fuente de fibra, alimentación, bebidas, jabón y medicinas. Finalmente, muchos géneros, como Agave, Hosta, Manfreda, Polianthes, y Yucca, son utilizadas como ornamentales. Bibliografía Referencias citadas Enlaces externos
51_0
Araceae
Las aráceas (nombre científico Araceae) son una familia de plantas monocotiledóneas herbáceas que comprende unos 104 géneros y más de 3000 especies, fáciles de distinguir por su inflorescencia característica. Entre las aráceas se encuentran los conocidos aros (Anthurium), las calas (Zantedeschia) y los filodendros (Philodendron). Hoy en día también están anidadas en las aráceas las lentejas de agua (Lemna y afines), tradicionalmente lemnáceas y aquí subfamilia Lemnoideae. Las aráceas no lemnóideas son el grupo aroide, las aráceas tradicionales. La familia es utilizada por sistemas de clasificación modernos como el sistema de clasificación APG III (2009) y el APWeb (2001 en adelante). Son plantas monocotiledóneas herbáceas, a veces arborescentes o como lianas (salvo en Lemnoideae, donde el cuerpo vegetativo es reducido y globoso a taloide). Hojas simples, enteras o lobuladas, en ocasiones fenestradas (con el limbo agujereado), a menudo grandes. La flor es en realidad la inflorescencia, las flores son pequeñas, con perianto nulo o con 4-8 piezas escamosas. Inflorescencias en espádice (espiga de eje carnoso, rodeada por una espata, que es la que suele ser confundida con el "pétalo" de la flor). Frutos en baya. Esta familia es más diversa en las zonas tropicales del Nuevo Mundo, aunque también están distribuidas por el Viejo Mundo, en zonas cálidas. Descripción Introducción teórica en Terminología descriptiva de las plantas Hierbas terrestres a acuáticas, o enredaderas con raíces aéreas, epífitas, o acuáticas flotantes, las últimas muchas veces muy reducidas con un cuerpo vegetativo más o menos taloide. Tallos muchas veces rizomatosos, o cormos, o tuberosos. Cristales de rafidio ondulados de oxalato de calcio presentes en células especializadas, y con químicos asociados que causan irritación en boca y garganta si son ingeridos. Compuestos cianogénicos muchas veces presentes, y a veces con alcaloides. Muchas veces con laticíferos, canales de mucílago, o canales de resina, y látex acuoso o lechoso. Las raíces son muchas veces micorrícicas, sin pelos radicales. Pelos simples, pero muchas veces faltan. Hojas alternas y espirales o dísticas, bifaciales, a veces basales, usualmente simples, la lámina muchas veces bien desarrollada, a veces fuertemente lobada, pinada o palmada compuesta o fenestrada, usualmente entera, con venación paralela, penni-paralela, o reticulada, envainadora en la base. Sin estípulas, pero pelos glandulares o pequeñas escamas a veces presentes en el nodo dentro de la vaina de la hoja. Inflorescencias indeterminadas, usualmente terminales, formando una espiga de numerosas flores pequeñas empacadas dentro de un eje carnoso (un espádice), que puede ser estéril en el ápice, que usualmente tiene por debajo una gran bráctea como una hoja o un pétalo (una espata). La inflorescencia es reducida a 1-4 flores en un pequeño bolsillo en los taxones acuáticos flotantes (Lemnoideae).Amorphophallus titanum es única en tener una de las inflorescencias más conspicuas de entre las angiospermas, mientras que Wolffia (una Lemnoideae) es única en tener las flores más pequeñas. Flores pequeñas, bisexuales a unisexuales (plantas usualmente monoicas), radiales, sin brácteas individuales, sésiles, a veces olorosas. Normalmente se dispone las flores femeninas en forma proximal y las masculinas en forma distal en el espádice. Tépalos usualmente 4-6 en 2 verticilos (raramente 8) o ausentes, separados a conados basalmente, inconspicuos y muchas veces carnosos, valvados o imbricados. Hipanto ausente. Estambres 4, 6 u 8 (raramente 1-12), filamentos separados a conados, anteras a veces poricidas (abriéndose por poros), o de dehiscencia longitudinal o transversal, separadas a conadas. En flores bisexuales los estambres son antitépalos (las piezas están dispuestas en el mismo radio de los tépalos). Polen variado. Carpelos usualmente 3 (raramente 1-cerca de 50), conados, ovario usualmente súpero, usualmente tantos lóculos como carpelos, placentación variada. 1 estilo y 1 estigma, puntado o capitado, corto, o ausente. Óvulos 1 a numerosos por carpelo, anátropos a ortótropos (usualmente anátropos y bitégmicos). Sin nectarios. El fruto usualmente una baya (agrupadas en una infrutescencia), pero ocasionalmente utrícula, drupa, o como nuez. Las semillas son oleosas (a veces también con almidón), endospermadas (el endosperma a veces faltante), con una cubierta seminal a veces carnosa. Ecología Cosmopolita, pero mejor representado en regiones tropicales y subtropicales, muy común en bosques tropicales y tierras húmedas. Las inflorescencias de Araceae son polinizadas por muchos grupos de insectos, especialmente escarabajos, moscas y abejas. La inflorescencia usualmente produce un fuerte olor y muchas veces también calor. El gineceo madura antes que el androceo, y cuando las flores son unisexuales, las flores femeninas maduran antes que las masculinas, facilitando la polinización cruzada. En Arisaema, las plantas pequeñas (generalmente jóvenes) son masculinas y las más grandes (de más edad) son femeninas, con lo que se facilita la polinización cruzada. La dispersión de las bayas verdes a brillantemente coloreadas es presumiblemente efectuada por pájaros o mamíferos. Los utrículos de Lemna y afines son dispersados por agua. Filogenia Introducción teórica en Filogenia Unos pocos géneros de acuáticas flotantes muy reducidas, entre las que se incluyen Spirodela, Landoltia, Lemna, Wolffia, y Wolffiella, fueron alguna vez segregadas en la familia Lemnaceae (ver Cronquist 1981, Dahlgren et al. 1985, den Hartog 1975, Landolt 1980, 1986, Landolt y Kandeler 1987), pero ahora son vistas como aráceas altamente modificadas (French et al. 1995, Mayo et al. 1995, Stockey et al. 1997, Tam et al. 2004). En Lemna, Landoltia y Spirodela la espata está representada por una vaina membranosa, mientras que falta completamente en Wolffia y Wolfiella. Si bien las secuencias de rbcL ubican a la aroidea acuática flotante mucho más grande Pistia, en Aroideae, no está cercanamente emparentada con Lemna y demás (French et al. 1995). Araceae como aquí definido es considerado monofilético sobre la base de la morfología (Grayum 1990, Mayo et al. 1995 ) y secuencias de ADN cp (Chase et al. 1993, French et al. 1995). La familia probablemente es hermana del resto de las familias de Alismatales (Chase et al. 1995b, Dahlgren y Rasmussen 1983, Dahlgren et al. 1985, Stevenson y Loconte 1995), por eso hoy en día se la ubica dentro de ese orden. Araceae fue dividida en muchas subfamilias sobre la base de la variación en hábito, arreglo de las hojas y morfología de las hojas, estructura de la inflorescencia, morfología floral, estructura del polen, anatomía, y número de cromosomas (Grayum 1990). Las relaciones filogenéticas también fueron hechas dentro de Araceae a través de secuencias de rbcL (French et al. 1995), de trnL-F (Tam et al. 2004), y morfología (Mayo et al. 1998). Gymnostachys, Orontium, Symplocarpus, y afines tienen tallos condensados que no son exactamente cormos pero son engrosados, y son hermanas del resto de la familia. La mayoría del resto de las aráceas están unidas por sus hojas con lámina expandida, un internodo grande en la inflorescencia entre la espata y la siguiente hoja por debajo de ella, la formación de una continuación del tallo en la axila de la penúltima hoja debajo de la espata, y más o menos basal la placentación. Los taxones monoicos comprenden un gran clado, las Aroideae, con 74 géneros (Zamioculcas, Dieffenbachia, Spathicarpa, Philodendron, Caladium, Syngonium, Aglaonema, Zantedeschia, Amorphophallus, Peltandra, Asarum, Arum, Arisaema, Alocasia, Colocasia, y Pistia, Mayo et al. 1998). Un segundo gran clado, las Monsteroideae, está delimitado en la base de una espata indiferenciada (es decir sin porción tubular) que es prontamente decidua o marcescente, con una zona de abscisión basal diferenciada. Este grupo incluye géneros como Monstera, Scindapsus, y Epipremnum. Spathiphyllum y afines pueden estar emparentados con estos (French et al. 1995). Pothos y parientes, y Anthurium, forman las Pothoideae, estas plantas se caracterizan por una venación de la hoja fina con venas secundarias y terciarias formando venas cruzadas a las primarias (Mayo et al. 1998). Taxonomía Introducción teórica en Taxonomía La familia fue reconocida por el APG III (2009), el Linear APG III (LAPG III 2009) le asignó el número de familia 30. La familia ya había sido reconocida por el APG II (2003). 109 géneros, 2.830 especies. Los géneros más representados son Anthurium (900 especies), Philodendron (500 especies), Arisaema (150 especies), Homalomena (140 especies), Amorphophallus (100 especies), Schismatoglottis (100 especies), Spathiphyllum (60 especies), Monstera (50 especies), Pothos (50 especies), Xanthosoma (40 especies), Dieffenbachia (40 especies), y Syngonium (30 especies). Para una lista completa de géneros ver Anexo:Géneros de Araceae Sinónimos según el APWeb: Arisaraceae Rafinesque, Caladiaceae Salisbury, Callaceae Bartling, Pistiaceae C. Agardh Importancia económica Los cormos con almidón de Alocasia, Colocasia (Colocasia esculenta es el taro) y Xanthosoma (la especie Xanthosoma sagittifolium) son comestibles después de un tratamiento apropiado para remover los químicos irritantes. Las bayas de Monstera ocasionalmente se comen. Otro taxón que es importante fuente de alimentación en los trópicos ("rootstocks", hojas, semillas, o frutos) es por ejemplo, Amorphophallus. Los indígenas utilizan algunas aráceas para medicinas, fibras (de las raíces), o para veneno para flechas. La familia contiene numerosas ornamentales, entre las que se incluyen Philodendron, Zantedeschia ("lirio de agua", "cala"), Anthurium, Caladium ("oreja de elefante"), Colocasia, Dieffenbachia, Epipremnum, Monstera, Spathiphyllum, Syngonium, Aglaonema, Xanthosoma, Scindapsus, Spathicarpa, y Zamioculcas''. Bibliografía Referencias citadas Enlaces externos
52_0
Amperio
El amperio, ampere o ampère (símbolo A) es la unidad de intensidad de corriente eléctrica. Forma parte de las unidades básicas en el sistema internacional de unidades y recibió ese nombre en honor al matemático y físico francés André-Marie Ampère (1775-1836). Se define al fijar el valor numérico de la carga elemental, , en , cuando se expresa en la unidad C, igual a A·s, donde el segundo se define en función de ΔνCs. El efecto de esta definición es que el amperio es la corriente eléctrica correspondiente al flujo de = cargas elementales por segundo. Esta definición se adoptó el 16 de noviembre de 2018 en la 26ª Conferencia General de Pesas y Medidas acordándose su entrada en vigor el 20 de mayo de 2019. El amperio y el culombio se relacionan mediante: Si bien el amperio es unidad básica y el culombio no lo es, en la práctica, la actual definición de amperio depende de la de culombio. Definiciones históricas Desde mediados del , con el desarrollo del electromagnetismo y la electrotecnia, comenzó a usarse el amperio como unidad de corriente eléctrica. La definición y cuantificación no era uniforme, sino que cada país desarrolló sus propios estándares. El primer estándar internacional que definió el amperio, así como otras unidades eléctricas, fue establecido en el Congreso Eléctrico Internacional de Chicago en 1893, y confirmada en la Conferencia Internacional de Londres de 1908. El "amperio internacional" se definió en términos de la corriente eléctrica que provoca la deposición electrolítica de la plata de una solución de nitrato de plata a un promedio de 0.001118 g/s. Su valor, expresado en términos del amperio absoluto, equivalía a 0,99985 A. La unidad de carga eléctrica, el culombio, se deriva del amperio: un culombio es la cantidad de carga eléctrica desplazada por una corriente de un amperio fluyendo durante un segundo. Por tanto, la corriente eléctrica (I), puede expresarse como el promedio de carga (Q) que fluye por unidad de tiempo (t): Aunque conceptualmente parecería más lógico tomar la carga como unidad básica, se optó por la corriente porque, por razones operativas, resultaba más fácil de medir experimentalmente. Así se llegó a la anterior definición de amperio, la establecida en la 9ª Conferencia General de Pesas y Medidas de 1948, de la siguiente manera: Un amperio es la corriente constante que, mantenida en dos conductores rectos paralelos de longitud infinita, de sección circular despreciable, y colocados a un metro de distancia en el vacío, produciría entre estos conductores una fuerza igual a 2 x 10–7 newton por metro de longitud. El proceso de redefinición que condujo a la definición de amperio adoptada en el año 2018 fue iniciado formalmente en el 2010 cuando el Comité del BIPM propuso sustituir las definiciones entonces vigentes de varias unidades del sistema internacional, por otras basadas en constantes de la naturaleza, como la constante de Planck, la de Boltzmann, la carga elemental y el número de Avogadro. Valor de la permeabilidad del vacío De la definición de amperio de 1948 se seguía un valor exacto para la permeabilidad magnética del vacío. La fuerza ejercida sobre dos conductores paralelos rectilíneos por los que circula una intensidad de corriente viene dada por la ley de Biot-Savart: donde: es la fuerza, que es de atracción cuando el sentido de la corriente es el mismo, es la longitud de conductores considerada, es la permeabilidad magnética del vacío, es la intensidad de corriente eléctrica que circula por los conductores, es la distancia entre los conductores, Despejando de la anterior ecuación se tiene que: era el valor exacto para la permeabilidad del vacío. Además, dado que la permitividad y la impedancia característica del vacío están relacionadas con la permeabilidad y la velocidad de la luz en el vacío se obtenían otros valores definidos exactos: La permitividad del vacío la impedancia característica del vacío donde es la velocidad de la luz en el vacío. Con la definición de amperio del año 2018 esas tres magnitudes: permeabilidad magnética, permitividad e impedancia característica ya no tienen valores exactos definidos en el Sistema Internacional de Unidades y han de ser objeto de determinación experimental. Múltiplos del amperio A continuación se muestra una tabla de los múltiplos y submúltiplos del amperio conforme a la nomenclatura del Sistema Internacional de Unidades: Véase también Corriente eléctrica. Amperímetro. Carga eléctrica. Resistencia eléctrica. Ley de Ohm. Ohmio. Voltio. Voltaje. Vatio. Notas Referencias Enlaces externos Bureau International des Poids et Mesures . La Referencia de la NIST en Constantes, Unidades, e Incertidumbre . Una corta historia de las unidades SI en la electricidad . Unidades básicas del Sistema Internacional Unidades de electromagnetismo Unidades epónimas
93_0
Arte culinario
La culinaria o arte culinario es una forma creativa de preparar los alimentos y depende mucho de la cultura, en términos de conocimientos respecto a los alimentos, su forma de prepararlos, así como de los rituales sociales establecidos alrededor de la comida. No hay que confundirlo con gastronomía, que englobaría a esta en un campo más general dedicado a todo lo relacionado con la alimentación. Existe un arte culinario característico en cada pueblo, cultura y región. Hoy en día con el fenómeno de la globalización, con la continua comunicación de millones de personas y la influencia de los medios de comunicación, así como del comercio han conducido a un mayor conocimiento y aprecio de las cocinas foráneas, y una mayor facilidad para acceder a su preparación. Sin embargo, una gran mayoría de esas recetas y sus variaciones tienen sus orígenes en las cocinas tradicionales desarrolladas a lo largo de mucho tiempo, con rituales de preparación transmitidos a lo largo de muchas generaciones. La cocina tradicional es un arte fundamentalmente social, con caracteres locales y tradicionales, pero la sociedad moderna ha conseguido facilitar su elaboración, apoyado por la fácil adquisición de materias primas que se cultivan, a veces, a miles de kilómetros de distancia. Es importante, en la cocina moderna, esta base de distintos orígenes étnicos y culturales... Alimentación Alimentarse consiste en satisfacer las necesidades del organismo en agua, proteínas, lípidos, glúcidos, vitaminas y oligoelementos, para asegurar el crecimiento y mantenimiento del cuerpo según la edad, sexo y grado de actividad física o psíquica. Los alimentos suministran, pero de manera desequilibrada en relación con las necesidades, las proteínas, lípidos y glúcidos que constituyen una fuente de energía y moléculas necesarias al cuerpo humano, así como vitaminas y otros elementos. Resultando que solo la asociación, equilibrada de alimentos de tipos nutricionales diferentes, asegura los aportes de elementos indispensables. Necesidades Los bebés e infantes necesitan la vitamina D, la cual tendría que ser aportada por la comida pero, al encontrarse esta en baja disponibilidad en la porción cotidiana, se les suele dar complementos vitamínicos. De igual modo, las mujeres necesitan un 77 % de hierro más que los hombres por las pérdidas menstruales o después del parto, así como más calcio en la menopausia, para evitar en lo posible la aparición de osteoporosis. De forma similar, la ración hídrica varía de la misma forma que los aportes energéticos. Un cuarto del almacenamiento de agua extracelular es renovado diariamente en los bebés y solo una séptima parte en el adulto. Arte culinario Es el arte de preparar y cocinar los alimentos. Esto incluye la variedad de productos típicos de una zona, la manera en que se cocinan, la presentación de la comida, la fotografía, la hotelería, los restaurantes, y mucho más. Podemos decir que las Artes Culinarias son una expresión de las ideas artísticas a través de alimentos o medios relacionados con la alimentación. Con relación a la hotelería y los restaurantes, el arte culinario genera una impresión en los clientes o comensales, pues se espera que los platillos de la selección o menú se preparen de acuerdo a altos estándares de calidad, con todas las precauciones que rigen las normas de higiene y de manipulación de alimentos, y con decoraciones para hacer más atractivo cada tipo de plato. Con respecto a los servicios ofrecidos por un restaurante de hotel o como establecimiento independiente, estos deben ser dirigidos por profesionales de las artes culinarias: chefs o cocineros que tengan los debidos conocimientos de su área, para dirigir, capacitar e incluso ayudar a preparar los platos al personal de cocina. En que nos ayuda Para conocer más sobre la cocina. Para intentar garantizar la salud de los consumidores, se transforman y asocian alimentos variados. Para suministrar alimentos variables según las necesidades de cada individuo. Para poder proponer regímenes nutricionales específicos en función de cada enfermedad. La preparación de las comidas El tipo de cocina depende, del cocinero, de los ingredientes y de las costumbres u obligaciones culturales, éticas, médicas o religiosas para unos alimentos en concreto. Se dice entonces, que algunos alimentos (casi todos) deben pasar por un proceso llamado cocción, que es la aplicación de calor u otras técnicas para conservar y modificar su sabor, color y textura; de esta manera serán estos aptos para el consumo humano. Para que un alimento sea parte íntegra del modo de alimentación tendrá que estar fácilmente disponible, en cantidad adaptada a las necesidades humanas y, a ser posible, a buen precio. Como el hombre se nutre, no solamente para asegurar su crecimiento y desarrollo sino también por placer, los alimentos tendrán que tener a menudo unas calidades gustativas, las cuales cambian según las sociedades. Comer es también un acto social, algunas personas intentan no comer ciertos alimentos por su imagen desvalorizante (el aceite de colza después de la Primera Guerra Mundial), buscan unos más raros y caros (el foie-gras o el caviar) o rivalizan de imaginación para preparar algún plato de manera compleja, apetitosa y visualmente satisfactoria. La cocina es además el soporte y manifestación de alguna posición religiosa y hasta política. Así, algunas costumbres culturales o algunas religiones han puesto tabúes sobre ciertos alimentos o preparaciones. Los alimentos y modos de preparación elegidos dependen de los principios de cada consumidor. Buscar alimentos con etiqueta de calidad o Denominación de Origen, de agricultura biológica o el rehusar comer alimentos de origen animal (vegetarianos, por ejemplo) viene a menudo de una elección ética, igual que el deseo de no violencia a los animales, o para no imponer un impacto tan grande para la biosfera (desde el punto de vista energética, la producción de 1 kilo de proteínas animales resulta más cara que la misma cantidad de proteínas vegetales). Estas posiciones son muy defendidas por los ecologistas, véase también macrobióticos. La elección inicial de los alimentos depende de múltiples variables: antes, el primer factor fue el de la disponibilidad, por ejemplo la carne de mamut en una ecorregión al norte de Europa o los períodos de recolección de los agroalimentos. Las costumbres y técnicas alimentarias se formaron en torno a esos períodos favorables y de la disponibilidad de los combustibles (madera, carbón). Véase también Historia de la gastronomía Alimentación humana Fecha de caducidad Triángulo culinario Estudio de los alimentos Club Gastronómico Anexo:Gastronomías del mundo Referencias Gastronomía
118_0
Algoritmo
En matemáticas, lógica, ciencias de la computación y disciplinas relacionadas, un algoritmo (probablemente del latín tardío algorithmus, y este del árabe clásico ḥisābu lḡubār, que significa «cálculo mediante cifras arábigas») es un conjunto de instrucciones o reglas definidas y no-ambiguas, ordenadas y finitas que permite, típicamente, solucionar un problema, realizar un cómputo, procesar datos y llevar a cabo otras tareas o actividades. Dado un estado inicial y una entrada, siguiendo los pasos sucesivos se llega a un estado final y se obtiene una solución. Los algoritmos son el objeto de estudio de la algoritmia. En la vida cotidiana, se emplean algoritmos frecuentemente para resolver problemas determinados. Algunos ejemplos son los manuales de usuario, que muestran algoritmos para usar un aparato, o las instrucciones que recibe un trabajador de su patrón. Algunos ejemplos en matemática son el algoritmo de multiplicación, para calcular el producto, el algoritmo de la división para calcular el cociente de dos números, el algoritmo de Euclides para obtener el máximo común divisor de dos enteros positivos, o el método de Gauss para resolver un sistema de ecuaciones lineales. En términos de programación, un algoritmo es una secuencia de pasos lógicos que permiten solucionar un problema. Definición En general, no existe ningún consenso definitivo en cuanto a la definición formal de algoritmo. Muchos autores los señalan como listas de instrucciones para resolver un cálculo o un problema abstracto, es decir, que un número finito de pasos convierten los datos de un problema (entrada) en una solución (salida). Sin embargo, cabe notar que algunos algoritmos no tienen necesariamente que terminar o resolver un problema en particular. Por ejemplo, una versión modificada de la criba de Eratóstenes, que nunca termine de calcular números primos, no deja de ser un algoritmo. A lo largo de la historia, varios autores han tratado de definir formalmente los algoritmos utilizando modelos matemáticos. Esto lo hizo Alonzo Church en 1936 con el concepto de "calculabilidad efectiva" basada en su cálculo lambda y por Alan Turing basándose en la máquina de Turing. Los dos enfoques son equivalentes, en el sentido de que se pueden resolver exactamente los mismos problemas con ambos enfoques. No obstante, estos modelos están sujetos a un tipo particular de datos, como son números, símbolos o gráficas mientras que, en general, los algoritmos funcionan sobre una vasta cantidad de estructuras de datos. En general, la parte común en todas las definiciones se puede resumir en las siguientes tres propiedades, siempre y cuando no consideremos algoritmos paralelos: Tiempo secuencial. Un algoritmo funciona en tiempo discretizado –paso a paso–, definiendo así una secuencia de estados computacionales por cada entrada válida (la entrada son los datos que se le suministran al algoritmo antes de comenzar). Estado abstracto. Cada estado computacional puede ser descrito formalmente utilizando una estructura de primer orden y cada algoritmo es independiente de su implementación (los algoritmos son objetos abstractos), de manera que en un algoritmo las estructuras de primer orden son invariantes bajo isomorfismo. Exploración acotada. La transición de un estado al siguiente queda completamente determinada por una descripción fija y finita; es decir, entre cada estado y el siguiente solamente se puede tomar en cuenta una cantidad fija y limitada de términos del estado actual. En resumen, un algoritmo es cualquier cosa que funcione paso a paso, donde cada paso se pueda describir sin ambigüedad y sin hacer referencia a una computadora en particular, y además tiene un límite fijo en cuanto a la cantidad de datos que se pueden leer/escribir en un solo paso. Esta amplia definición abarca tanto a algoritmos prácticos como aquellos que solo funcionan en teoría, por ejemplo, el método de Newton y la eliminación de Gauss-Jordan funcionan, al menos en principio, con números de precisión infinita; sin embargo, no es posible programar la precisión infinita en una computadora, y no por ello dejan de ser algoritmos. En particular es posible considerar una cuarta propiedad que puede usarse para validar la tesis de Church-Turing, de que toda función calculable se puede programar en una máquina de Turing (o equivalentemente, en un lenguaje de programación suficientemente general): Aritmetizabilidad. Solamente operaciones innegablemente calculables están disponibles en el paso inicial. Medios de expresión de un algoritmo Los algoritmos pueden ser expresados de muchas maneras, incluyendo al lenguaje natural, pseudocódigo, diagramas de flujo y lenguajes de programación entre otros. Las descripciones en lenguaje natural tienden a ser ambiguas y extensas. El usar pseudocódigo y diagramas de flujo evita muchas ambigüedades del lenguaje natural. Dichas expresiones son formas más estructuradas para representar algoritmos; no obstante, se mantienen independientes de un lenguaje de programación específico. La descripción de un algoritmo suele hacerse en tres niveles: Descripción de alto nivel. Se establece el problema, se selecciona un modelo matemático y se explica el algoritmo de manera verbal, posiblemente con ilustraciones y omitiendo detalles. Descripción formal. Se usa un pseudocódigo para describir la secuencia de pasos que encuentran la solución. Implementación. Se muestra el algoritmo expresado en un lenguaje de programación específico o algún objeto capaz de llevar a cabo instrucciones. También es posible incluir un teorema que demuestre que el algoritmo es correcto, un análisis de complejidad o ambos. Diagrama de flujo Los diagramas de flujo son descripciones gráficas de algoritmos; usan símbolos conectados con flechas para indicar la secuencia de instrucciones y están regidos por ISO. Los diagramas de flujo se emplean para representar algoritmos pequeños, ya que abarcan mucho espacio y su construcción es laboriosa. Por su facilidad de lectura se utilizan como introducción a los algoritmos, descripción de un lenguaje y descripción de procesos a personas ajenas a la computación. Pseudocódigo El pseudocódigo (falso lenguaje, el prefijo pseudo significa falso) es una descripción de alto nivel de un algoritmo que emplea una mezcla de lenguaje natural con algunas convenciones sintácticas propias de lenguajes de programación, como asignaciones, ciclos y condicionales, aunque no está regido por ningún estándar. El pseudocódigo está pensado para facilitar a las personas el entendimiento de un algoritmo y, por lo tanto, puede omitir detalles irrelevantes que son necesarios en una implementación. Programadores diferentes suelen utilizar convenciones distintas, que pueden estar basadas en la sintaxis de lenguajes de programación concretos. Sin embargo, el pseudocódigo, en general, es comprensible sin necesidad de conocer o usar un entorno de programación específico, y es a la vez suficientemente estructurado para que su implementación se pueda hacer directamente a partir de él. Así, el pseudocódigo cumple con las funciones antes mencionadas para representar algo abstracto, los protocolos son los lenguajes para la programación. Busque fuentes más precisas para tener mayor comprensión del tema. Sistemas formales La teoría de autómatas y la teoría de funciones recursivas proveen modelos matemáticos que formalizan el concepto de algoritmo. Los modelos más comunes son la máquina de Turing, máquina de registro y funciones μ-recursivas. Estos modelos son tan precisos como un lenguaje máquina, careciendo de expresiones coloquiales o ambigüedad; sin embargo, se mantienen independientes de cualquier computadora y de cualquier implementación. Implementación Muchos algoritmos se han ideado para implementarse en un programa. No obstante, los algoritmos pueden ser implementados en otros medios, como una red neuronal, un circuito eléctrico o un aparato mecánico y eléctrico. Algunos algoritmos incluso se diseñan especialmente para implementarse usando lápiz y papel. El algoritmo de multiplicación tradicional, el algoritmo de Euclides, la criba de Eratóstenes y muchas formas de resolver la raíz cuadrada son solo algunos ejemplos. Variables Son elementos que toman valores específicos de un tipo de datos concreto. La declaración de una variable puede realizarse comenzando con var. Principalmente, existen dos maneras de otorgar valores iniciales a variables: Mediante una sentencia de asignación. Mediante un procedimiento de entrada de datos (por ejemplo: 'read'). Ejemplo: ... i:=1; read(n); while i < n do begin (* cuerpo del bucle *) i := i + 1 end; ... Estructuras secuenciales La estructura secuencial es aquella en la que una acción sigue a otra en secuencia. Las operaciones se suceden de tal modo que la salida de una es la entrada de la siguiente y así sucesivamente hasta el fin del proceso. La asignación de esto consiste en el paso de valores o resultados a una zona de la memoria. Dicha zona será reconocida con el nombre de la variable que recibe el valor. La asignación se puede clasificar de la siguiente forma: Simples: Consiste en pasar un valor constante a una variable (a ← 15) Contador: Consiste en usarla como un verificador del número de veces que se realiza un proceso (a ← a + 1) Acumulador: Consiste en usarla como un sumador en un proceso (a ← a + b) De trabajo: Donde puede recibir el resultado de una operación matemática que involucre muchas variables (a ← c + b*1/2). Un ejemplo de estructura secuencial, como obtener el área de un triángulo: Inicio ... float b, h, a; printf("Diga la base"); scanf("%f", &b); printf("Diga la altura"); scanf("%f", &h); a = (b*h)/2; printf("El área del triángulo es %f", a) ... Fin Algoritmos como funciones Un algoritmo se puede concebir como una función que transforma los datos de un problema (entrada) en los datos de una solución (salida). Más aún, los datos se pueden representar a su vez como secuencias de bits, y en general, de símbolos cualesquiera. Como cada secuencia de bits representa a un número natural (véase Sistema binario), entonces los algoritmos son en esencia funciones de los números naturales en los números naturales que sí se pueden calcular. Es decir que todo algoritmo calcula una función donde cada número natural es la codificación de un problema o de una solución. En ocasiones los algoritmos son susceptibles de nunca terminar, por ejemplo, cuando entran a un bucle infinito. Cuando esto ocurre, el algoritmo nunca devuelve ningún valor de salida, y podemos decir que la función queda indefinida para ese valor de entrada. Por esta razón se considera que los algoritmos son funciones parciales, es decir, no necesariamente definidas en todo su dominio de definición. Cuando una función puede ser calculada por medios algorítmicos, sin importar la cantidad de memoria que ocupe o el tiempo que se tarde, se dice que dicha función es computable. No todas las funciones entre secuencias datos son computables. El problema de la parada es un ejemplo. Análisis de algoritmos Como medida de la eficiencia de un algoritmo, se suelen estudiar los recursos (memoria y tiempo) que consume el algoritmo. El análisis de algoritmos se ha desarrollado para obtener valores que de alguna forma indiquen (o especifiquen) la evolución del gasto de tiempo y memoria en función del tamaño de los valores de entrada. El análisis y estudio de los algoritmos es una disciplina de las ciencias de la computación y, en la mayoría de los casos, su estudio es completamente abstracto sin usar ningún tipo de lenguaje de programación ni cualquier otra implementación; por eso, en ese sentido, comparte las características de las disciplinas matemáticas. Así, el análisis de los algoritmos se centra en los principios básicos del algoritmo, no en los de la implementación particular. Una forma de plasmar (o algunas veces "codificar") un algoritmo es escribirlo en pseudocódigo o utilizar un lenguaje muy simple tal como Lexico, cuyos códigos pueden estar en el idioma del programador. Algunos escritores restringen la definición de algoritmo a procedimientos que deben acabar en algún momento, mientras que otros consideran procedimientos que podrían ejecutarse eternamente sin pararse, suponiendo el caso en el que existiera algún dispositivo físico que fuera capaz de funcionar eternamente. En este último caso, la finalización con éxito del algoritmo no se podría definir como la terminación de este con una salida satisfactoria, sino que el éxito estaría definido en función de las secuencias de salidas dadas durante un periodo de vida de la ejecución del algoritmo. Por ejemplo, un algoritmo que verifica que hay más ceros que unos en una secuencia binaria infinita debe ejecutarse siempre para que pueda devolver un valor útil. Si se implementa correctamente, el valor devuelto por el algoritmo será válido, hasta que evalúe el siguiente dígito binario. De esta forma, mientras evalúa la siguiente secuencia podrán leerse dos tipos de señales: una señal positiva (en el caso de que el número de ceros sea mayor que el de unos) y una negativa en caso contrario. Finalmente, la salida de este algoritmo se define como la devolución de valores exclusivamente positivos si hay más ceros que unos en la secuencia y, en cualquier otro caso, devolverá una mezcla de señales positivas y negativas. Ejemplo de algoritmo El problema consiste en encontrar el máximo de un conjunto de números. Para un ejemplo más complejo véase Algoritmo de Euclides. Descripción de alto nivel Dado un conjunto finito de números, se tiene el problema de encontrar el número más grande. Sin pérdida de generalidad se puede asumir que dicho conjunto no es vacío y que sus elementos están numerados como . Es decir, dado un conjunto se pide encontrar tal que para todo elemento que pertenece al conjunto . Para encontrar el elemento máximo, se asume que el primer elemento () es el máximo; luego, se recorre el conjunto y se compara cada valor con el valor del máximo número encontrado hasta ese momento. En el caso de que un elemento sea mayor que el máximo, se asigna su valor al máximo. Cuando se termina de recorrer la lista, el máximo número que se ha encontrado es el máximo de todo el conjunto. Descripción formal El algoritmo puede ser escrito de una manera más formal en el siguiente pseudocódigo: Sobre la notación: "←" representa una asignación: ← significa que la variable toma el valor de ; "devolver" termina el algoritmo y devuelve el valor a su derecha (en este caso, el máximo de ). Implementación En lenguaje C++: int max(int c[], int n) { int i, m = c[0]; for (i = 1; i < n; i++) if (c[i] > m) m = c[i]; return m; } Véase también Tipos de algoritmos según su función Algoritmo de ordenamiento Algoritmo de búsqueda Técnicas de diseño de algoritmos Algoritmos voraces (greedy): seleccionan los elementos más prometedores del conjunto de candidatos hasta encontrar una solución. En la mayoría de los casos la solución no es óptima. Algoritmos paralelos: permiten la división de un problema en subproblemas de forma que se puedan ejecutar de forma simultánea en varios procesadores. Algoritmos probabilísticos: algunos de los pasos de este tipo de algoritmos están en función de valores pseudoaleatorios. Algoritmos determinísticos: el comportamiento del algoritmo es lineal: cada paso del algoritmo tiene únicamente un paso sucesor y otro antecesor. Algoritmos no determinísticos: el comportamiento del algoritmo tiene forma de árbol y a cada paso del algoritmo puede bifurcarse a cualquier número de pasos inmediatamente posteriores, además todas las ramas se ejecutan simultáneamente. Divide y vencerás: dividen el problema en subconjuntos disjuntos obteniendo una solución de cada uno de ellos para después unirlas, logrando así la solución al problema completo. Metaheurísticas: encuentran soluciones aproximadas (no óptimas) a problemas basándose en un conocimiento anterior (a veces llamado experiencia) de los mismos. Programación dinámica: intenta resolver problemas disminuyendo su coste computacional aumentando el coste espacial. Ramificación y acotación: se basa en la construcción de las soluciones al problema mediante un árbol implícito que se recorre de forma controlada encontrando las mejores soluciones. Vuelta atrás (backtracking): se construye el espacio de soluciones del problema en un árbol que se examina completamente, almacenando las soluciones menos costosas. Temas relacionados Cota inferior asintótica Cota ajustada asintótica Complejidad computacional Diagramas de flujo Diagrama Nassi-Shneiderman Máquina de Turing Disciplinas relacionadas Ciencias de la Computación Análisis de algoritmos Complejidad computacional Gobierno por algoritmos Informática Inteligencia artificial Investigación operativa Matemáticas Programación Referencias Bibliografía Aho, A. The Design and Analysis of Computer Algorithms Cormen, T. H., Leiserson, C. E., Rivest, R. L. y Stein, C. Introduction to Algorithms (2nd ed.) Brassard, G. y P. Bratley. Fundamentos de Algoritmia, (ISBN 848966000X) Knuth, D. E. The Art of Computer Programming, [quien fue también, el creador del TeX] Mamber, U. Introduction to Algorithms. A Creative Approach Sedgewick, R. Algorithms in C (3r ed) (también existen versiones en C++ y Java) Bell, C. Gordon and Newell, Allen (1971), Computer Structures: Readings and Examples, McGraw–Hill Book Company, New York. . Includes an excellent bibliography of 56 references. , : cf. Chapter 3 Turing machines where they discuss "certain enumerable sets not effectively (mechanically) enumerable". Campagnolo, M.L., Moore, C., and Costa, J.F. (2000) An analog characterization of the subrecursive functions. In Proc. of the 4th Conference on Real Numbers and Computers, Odense University, pp. 91–109 Reprinted in The Undecidable, p. 89ff. The first expression of "Church's Thesis". See in particular page 100 (The Undecidable) where he defines the notion of "effective calculability" in terms of "an algorithm", and he uses the word "terminates", etc. Reprinted in The Undecidable, p. 110ff. Church shows that the Entscheidungsproblem is unsolvable in about 3 pages of text and 3 pages of footnotes. Davis gives commentary before each article. Papers of Gödel, Alonzo Church, Turing, Rosser, Kleene, and Emil Post are included; those cited in the article are listed here by author's name. Davis offers concise biographies of Leibniz, Boole, Frege, Cantor, Hilbert, Gödel and Turing with von Neumann as the show-stealing villain. Very brief bios of Joseph-Marie Jacquard, Babbage, Ada Lovelace, Claude Shannon, Howard Aiken, etc. , Yuri Gurevich, Sequential Abstract State Machines Capture Sequential Algorithms, ACM Transactions on Computational Logic, Vol 1, no 1 (July 2000), pp. 77–111. Includes bibliography of 33 sources. , 3rd edition 1976[?], (pbk.) , . Cf. Chapter "The Spirit of Truth" for a history leading to, and a discussion of, his proof. Presented to the American Mathematical Society, September 1935. Reprinted in The Undecidable, p. 237ff. Kleene's definition of "general recursion" (known now as mu-recursion) was used by Church in his 1935 paper An Unsolvable Problem of Elementary Number Theory that proved the "decision problem" to be "undecidable" (i.e., a negative result). Reprinted in The Undecidable, p. 255ff. Kleene refined his definition of "general recursion" and proceeded in his chapter "12. Algorithmic theories" to posit "Thesis I" (p. 274); he would later repeat this thesis (in Kleene 1952:300) and name it "Church's Thesis"(Kleene 1952:317) (i.e., the Church thesis). Kosovsky, N.K. Elements of Mathematical Logic and its Application to the theory of Subrecursive Algorithms, LSU Publ., Leningrad, 1981 A.A. Markov (1954) Theory of algorithms. [Translated by Jacques J. Schorr-Kon and PST staff] Imprint Moscow, Academy of Sciences of the USSR, 1954 [i.e., Jerusalem, Israel Program for Scientific Translations, 1961; available from the Office of Technical Services, U.S. Dept. of Commerce, Washington] Description 444 p. 28 cm. Added t.p. in Russian Translation of Works of the Mathematical Institute, Academy of Sciences of the USSR, v. 42. Original title: Teoriya algerifmov. [QA248.M2943 Dartmouth College library. U.S. Dept. of Commerce, Office of Technical Services, number OTS .] Minsky expands his "...idea of an algorithm – an effective procedure..." in chapter 5.1 Computability, Effective Procedures and Algorithms. Infinite machines. Reprinted in The Undecidable, pp. 289ff. Post defines a simple algorithmic-like process of a man writing marks or erasing marks and going from box to box and eventually halting, as he follows a list of simple instructions. This is cited by Kleene as one source of his "Thesis I", the so-called Church–Turing thesis. Reprinted in The Undecidable, p. 223ff. Herein is Rosser's famous definition of "effective method": "...a method each step of which is precisely predetermined and which is certain to produce the answer in a finite number of steps... a machine which will then solve any problem of the set with no human intervention beyond inserting the question and (later) reading the answer" (p. 225–226, The Undecidable) Cf. in particular the first chapter titled: Algorithms, Turing Machines, and Programs. His succinct informal definition: "...any sequence of instructions that can be obeyed by a robot, is called an algorithm" (p. 4). . Corrections, ibid, vol. 43(1937) pp. 544–546. Reprinted in The Undecidable, p. 116ff. Turing's famous paper completed as a Master's dissertation while at King's College Cambridge UK. Reprinted in The Undecidable, pp. 155ff. Turing's paper that defined "the oracle" was his PhD thesis while at Princeton. United States Patent and Trademark Office (2006), 2106.02 **>Mathematical Algorithms: 2100 Patentability, Manual of Patent Examining Procedure (MPEP). Latest revision August 2006 Enlaces externos Arabismos
134_0
Ala
Ala puede referirse a: Aeronáutica Ala de un avión o cualquier otro aerodino. Ala delta, mecanismo que sirve para planear y realizar vuelos sin motor. Ala, unidad militar de los ejércitos del aire. Arquitectura Ala, cada uno de los cuerpos separados lateralmente del edificio principal. Biología En bioquímica, la abreviatura del aminoácido Alanina. En botánica, sinónimo del género de Habenaria. En zoología, el ala de un ave o insecto. El nombre común de la planta Inula helenium. Deporte Ala, denominación reglamentaria en español de una posición dentro de un equipo de rugby (forwards). Ala, denominación en España de una posición dentro de un equipo de rugby (back). Ala, una posición dentro de un equipo de baloncesto. Ala, una posición dentro de un equipo de fútbol sala. Geografía Ala, localidad y comune italiana de la provincia de Trento. Ala Dagh, una cadena montañosa de la parte meridional de Turquía. Ala di Stura, comuna italiana de la Ciudad metropolitana de Turín, región de Piamonte Milicia Ala, en el ámbito militar posee varios significados. Náutica Ala tiene varias acepciones en náutica. Religión Alá, castellanización de la palabra árabe Allāh (اﷲ), nombre de Dios en el islam. Ala, deidad de la mitología igbo. Siglas y códigos ALA se puede referir a: Aeropuerto Internacional de Almatý, en Kazajistán, por su código IATA. Aerotransportes Litoral Argentino, compañía aérea fundada en 1956, parte de Austral Líneas Aéreas desde 1971. Åland, por su código ISO 3166-1. Asociación de Bibliotecarios Americanos (American Library Association), fundada en 1876. Enlaces externos Siglas
138_0
Animalia
En la clasificación científica de los seres vivos, los animales (Animalia) o metazoos (Metazoa) constituyen un reino que reúne un amplio grupo de organismos que son eucariotas, heterótrofos, pluricelulares y tisulares (excepto los poríferos). Se caracterizan por su amplia capacidad de movimiento, por no tener cloroplasto (aunque hay excepciones, como en el caso de Elysia chlorotica) ni pared celular, y por su desarrollo embrionario; que atraviesa una fase de blástula y determina un plan corporal fijo (aunque muchas especies pueden sufrir una metamorfosis posterior como los artrópodos). Los animales forman un grupo natural estrechamente emparentado con los hongos (reino Fungi). Animalia es uno de los cinco reinos del dominio Eukaryota, y a él pertenece el ser humano. La parte de la biología que estudia los animales es la zoología. Los filos animales más conocidos aparecen en el registro fósil durante la denominada explosión cámbrica, sucedida en los mares hace unos 542 a 530 millones de años. Los animales se dividen en varios subgrupos, algunos de los cuales son vertebrados: (aves, mamíferos, anfibios, reptiles, peces) e invertebrados: artrópodos (insectos, arácnidos, miriápodos, crustáceos), anélidos (lombrices, sanguijuelas), moluscos (bivalvos, gasterópodos, cefalópodos), poríferos (esponjas), cnidarios (medusas, pólipos, corales), equinodermos (estrellas de mar), nematodos (gusanos cilíndricos), platelmintos (gusanos planos), etc. Características La movilidad es la característica más llamativa de los organismos de este reino, pero no es exclusiva del grupo, lo que da lugar a que sean designados a menudo como animales ciertos organismos, los llamados protozoos, que pertenecen al reino Protista. En el siguiente esquema se muestran las características comunes a todos los animales: Organización celular: Eucariota y pluricelular. Nutrición: Heterótrofa por ingestión (a nivel celular, por fagocitosis y pinocitosis), a diferencia de los hongos, también heterótrofos, pero que absorben los nutrientes tras digerirlos externamente. Metabolismo: Aerobio (consumen obligatoriamente oxígeno). Sin embargo, recientemente se han descubierto varias especies del filo de animales marinos Loricifera, que tienen la particularidad de ser los primeros metazoos que hasta el momento se haya demostrado que vivan en un ambiente permanente de anaerobiosis, ya que no contienen mitocondrias, sino otros orgánulos. Reproducción: Todas las especies animales se reproducen sexualmente (algunas solo por partenogénesis), con gametos de tamaño muy diferente (oogamia) y cigotos (ciclo diplonte). Algunas pueden, además, multiplicarse asexualmente. Son típicamente diploides. Desarrollo: Mediante embrión y hojas embrionarias. El cigoto se divide repetidamente por mitosis hasta originar una blástula. Estructura y funciones: Poseen colágeno como proteína estructural. Tejidos celulares muy diferenciados. Sin pared celular. Algunos con quitina. Fagocitosis, en formas basales. Ingestión con fagocitosis ulterior o absorción en formas derivadas ("más evolucionadas"), con capacidad de movimiento, etc. Simetría: Excepto las esponjas, los demás animales presentan una disposición regular de las estructuras del cuerpo a lo largo de uno o más ejes corporales. Los tipos principales de simetría son la radial y la bilateral. Con pocas excepciones, la más notable la de las esponjas (filo Porifera), los animales presentan tejidos diferenciados y especializados. Estos incluyen músculos, que pueden contraerse para controlar el movimiento, y un sistema nervioso, que envía y procesa señales. Suele haber también una cámara digestiva interna, con una o dos aberturas. Los animales con este tipo de organización son conocidos como eumetazoos, en contraposición a los parazoos y mesozoos, que son niveles de organización más simples ya que carecen de algunas de las características mencionadas. Todos los animales tienen células eucariontes, rodeadas de una matriz extracelular característica compuesta de colágeno y glucoproteínas elásticas. Esta puede calcificarse para formar estructuras como conchas, huesos y espículas. Durante el desarrollo del animal se crea un armazón relativamente flexible por el que las células se pueden mover y reorganizarse, haciendo posibles estructuras más complejas. Esto contrasta con otros organismos pluricelulares como las plantas y los hongos, que desarrollan un crecimiento progresivo. Funciones esenciales Los animales llevan a cabo las siguientes funciones esenciales: alimentación, respiración, circulación, excreción, respuesta, movimiento y reproducción: Alimentación La mayoría de los animales no pueden absorber comida; la ingieren. Los animales han evolucionado de diversas formas para alimentarse. Los herbívoros comen plantas, los carnívoros comen otros animales; y los omnívoros se alimentan tanto de plantas como de animales. Los detritívoros comen material vegetal y animal en descomposición. Los comedores por filtración son animales acuáticos que cuelan minúsculos organismos que flotan en el agua. Los animales también forman relaciones simbióticas, en las que dos especies viven en estrecha asociación mutua. Por ejemplo, un parásito es un tipo de simbionte que vive dentro o sobre otro organismo, el huésped. El parásito se alimenta del huésped y lo daña. Respiración No importa si viven en el agua o en la tierra, todos los animales respiran; esto significa que pueden tomar oxígeno y despedir dióxido de carbono. Gracias a sus cuerpos muy simples y de delgadas paredes, algunos animales utilizan la difusión de estas sustancias a través de la piel. Sin embargo, la mayoría de los animales han evolucionado complejos tejidos y sistemas orgánicos para la respiración. Circulación Muchos animales acuáticos pequeños, como algunos gusanos, utilizan solo la difusión para transportar oxígeno y moléculas de nutrientes a todas sus células, y recoger de ellas los productos de desecho. La difusión basta porque estos animales apenas tienen un espesor de unas cuantas células. Sin embargo, los animales más grandes poseen algún tipo de sistema circulatorio para desplazar sustancias por el interior de sus cuerpos. Excreción Un producto de desecho primario de las células es el amoníaco, sustancia venenosa que contiene nitrógeno. La acumulación de amoniaco y otros productos de desecho podrían matar a un animal. La mayoría de los animales poseen un sistema excretor que bien elimina amoniaco o bien lo transforma en una sustancia menos tóxica que se elimina del cuerpo. Gracias a que eliminan los desechos metabólicos, los sistemas excretores ayudan a mantener la homeostasis. Los sistemas excretores varían, desde células que bombean agua fuera del cuerpo hasta órganos complejos como riñones. Respuesta Los animales usan células especializadas, llamadas células nerviosas, para responder a los sucesos de su medio ambiente. En la mayoría de los animales, las células nerviosas están conectadas entre sí para formar un sistema nervioso. Algunas células llamadas receptores, responden a sonidos, luz y otros estímulos externos. Otras células nerviosas procesan información y determinan la respuesta del animal. La organización de las células nerviosas dentro del cuerpo cambia dramáticamente de un fílum a otro. Movimiento Algunos animales adultos permanecen fijos en un sitio. Aunque muchos tienen movilidad. Sin embargo, tanto los fijos como los más veloces normalmente poseen músculos o tejidos musculares que se acortan para generar fuerza. La contracción muscular permite que los animales movibles se desplacen, a menudo en combinación con una estructura llamada esqueleto. Los músculos también ayudan a los animales, aun los más sedentarios, a comer y bombear agua y otros líquidos fuera del cuerpo. Reproducción La mayoría de los animales se reproducen sexualmente mediante la producción de gametos haploides. La reproducción sexual ayuda a crear y mantener la diversidad genética de una población. Por consiguiente, ayuda a mejorar la capacidad de una especie para evolucionar con los cambios del medio ambiente. Muchos invertebrados también pueden reproducirse asexualmente. La reproducción asexual da origen a descendiente genéticamente idénticos a los progenitores. Esta forma de reproducción permite que los animales aumenten rápidamente en cantidad. Clasificación Historia Los animales han sido estudiados desde la antigüedad, y aún hoy, la clasificación animal se muestra cambiante, pues depende de los estudios que revelan constantemente información novedosa. Los grupos animales se definieron sobre la base de sus caracteres biológicos, morfológicos y ultraestructurales; sin embargo, la filogenia del está basada principalmente en el estudio filogenómico molecular del ADN mitocondrial, ribosómico y nuclear, lo que ha determinado también cambios importantes. La siguiente tabla, resume históricamente los sistemas de clasificación más notables, dando relevancia al descubrimiento de los principales supergrupos: La clasificación de Hyman (1940), que ha estado en vigencia hasta hace poco (Margulis & Chapman, 2009), ha sido invalidada por los estudios filogenéticos moleculares contemporáneos, ya que se demostró que grupos como los acelomados, pseudocelomados, celomados y esquizocelomados son en realidad grupos artificiales (polifiléticos). Filos del reino animal El reino animal se subdivide en una serie de grandes grupos denominados filos (el equivalente a las divisiones del reino vegetal); cada uno responde a un tipo de organización bien definido, aunque hay algunos de afiliación controvertida. En el siguiente cuadro, se enumeran los filos animales y sus principales características: En esta tabla no figuran los filos Echiura, Pogonophora, Sipuncula y Orthonectida los cuales han sido reclasificados en Annelida, y el filo Acanthocephala el cual fue reclasificado en Rotifera. El filo Myxozoa ha sido reclasificado en Cnidaria y el filo Monoblastozoa es de dudosa existencia. Origen y documentación fósil Mientras que en las plantas se conocen varias series de formas que conducen de la organización unicelular a la pluricelular, en el Reino Animal se sabe muy poco sobre la transición entre protozoos y metazoos. Dicha transición no está documentada por fósiles y las formas recientes supuestamente intermedias tampoco nos ayudan demasiado. En este campo de la transición pueden mencionarse, por una parte, a Proterospongia, coanoflagelado marino y planctónico que forma una masa gelatinosa con coanocitos en la parte exterior y células ameboides en el interior, y por otra al pequeño organismo marino Trichoplax adhaerens (filo placozoos) que forma una placa cerrada por epitelio pavimentoso en la parte dorsal y cilíndrico en la parte central, y presenta en la cavidad interior células en forma de estrella; se reproduce por yemas flageladas y huevos. Otra forma sencilla de metazoo es Xenoturbella, que vive sobre los fondos fangosos del mar. Tienen algunos centímetros de largo y forma de hoja, una boca ventral que conduce a un estómago en forma de saco. Entre la epidermis y el intestino existe una capa de tejido conjuntivo con un tubo muscular longitudinal y células musculares en el mesénquima; en la parte basal de la epidermis existe un plexo nervioso y en la parte anterior presenta un estatocisto; produce óvulos y espermatozoides, estos idénticos a los de diferentes metazoos primitivos. Su posición sistemática es incierta, habiéndose propuesto como miembro de un filo independiente (xenoturbélidos), a emplazar tal vez en la base de los deuteróstomos. Por lo que respecta a los mesozoos, ya no son considerados un estado de transición entre protistas y metazoos; su modo de vida parásito parece que les condujo a una reducción y simplificación extremas a partir de vermes acelomados. Por tanto, se debe recurrir a la morfología, fisiología y ontogenia comparadas de los metazoos para poder reconstruir esta etapa de la evolución. Los datos obtenidos con microscopía electrónica y análisis moleculares han apagado antiguas controversias sobre el origen de los metazoos. En este sentido, parece definitivamente rechazada la hipótesis sobre un origen polifilético; incluso los placozoos y los mesozoos, considerados a veces como originados directa e independientemente de los protistas, parecen a la luz de los nuevos datos claramente metazoos. Tres fueron las teorías sobre el origen de los metazoos: Teoría colonial Es la teoría universalmente aceptada que postula que los metazoos tuvieron un origen colonial a partir de los coanoflagelados, un pequeño grupo de Mastigóforos monoflagelados; algunos son individuales y otros coloniales. Dicha teoría se ve avalada tanto por datos moleculares (ARN ribosómico) como morfológicos (las mitocondrias y las raíces flagelares son muy semejantes en los metazoos y en los coanoflagelados, un cierto número de metazoos presenta células tipo coanocito, y los espermatozoides son uniflagelados en la mayor parte de ellos). Los seguidores de esta teoría incluyen al filo Choanoflagellatea en el reino animal, en contraposición al resto de animales, los metazoos. El antecesor de los metazoos, sería una colonia hueca y esférica de dichos flagelados; las células sería uniflageladas en su superficie externa; la colonia poseería un eje anteroposterior, nadando con el polo anterior hacia delante; entre las células somáticas existirían algunas células reproductoras. Este estado hipotético se ha denominado blastaea, y se cree que es el reflejo del estado de blástula que se produce en el desarrollo de todos los animales. Por tanto, esta teoría considera que los animales han evolucionado de protozoos flagelados. Sus parientes vivos más cercanos son los coanoflagelados, flagelados con la misma estructura que cierto tipo de células de las esponjas. Los análisis moleculares los sitúan en el supergrupo de los opistocontos, que también incluye a los hongos y a pequeños protistas parasitarios emparentados con estos últimos. El nombre viene de la localización trasera del flagelo en las células móviles, como en muchos espermatozoides animales, mientras que otros eucariontes tienen flagelos delanteros (acrocontos). El origen animal a partir de protozoos uniflagelados, así como su relación con los hongos, se puede graficar mediante las siguientes relaciones filogenéticasː Teoría simbiótica Una segunda hipótesis contemplaba la posibilidad que diferentes Protistas se hubiesen asociado simbióticamente originando un organismo pluricelular. Este es el origen que se presupone para las células eucariotas a partir de células procariotas. No obstante, no hay pruebas que respalden el origen simbiótico de los metazoos. Teoría de la celularización Otra teoría, que provocó profundas divergencias entre los zoólogos, es la que contemplaba a los turbelarios como los metazoos más primitivos y, por tanto, cuestiona el carácter ancestral de cnidarios y esponjas. Según esta hipótesis, los turbelarios derivarían de protistas ciliados multinucleados, por medio de celularización de los núcleos, lo que concuerda con el concepto de protozoo como organismo acelular. No obstante, hay muchos aspectos en contra de esta teoría, ya que no tiene en cuenta los criterios fundamentados en la embriología y da mucha más importancia a la organización del adulto. Evolución del reino Animalia Los primeros fósiles que podrían representar a animales corresponden a Otavia hallado en Namibia de entre 760-550 millones de años. Estos fósiles se interpretan como esponjas tempranas. Sin embargo estudios que usan relojes moleculares estiman el origen de los animales entre unos 850 millones de años durante la glaciación del Criogénico-Tónico. Los animales más antiguos que se conocen aparecen hacia el final del Precámbrico, hace alrededor de 580 millones de años, y se les conoce como vendobiontes o la biota del periodo Ediacárico. No obstante, son muy difíciles de relacionar con los fósiles posteriores. Algunos de estos organismos podrían ser los precursores de los filos modernos, pero también podrían ser grupos separados, y es posible que no fueran realmente animales en sentido estricto. Entre los primeros animales conocidos estarían Cyclomedusa, Charnia, Charniodiscus, Parvancorina, Annulatubus, Spriggina, etc. Aparte de ellos, muchos filos conocidos de animales hicieron una aparición más o menos simultánea durante el período Cámbrico, hace cerca de 570 millones de años. Todavía se discute si este evento, llamado explosión cámbrica, representa una rápida divergencia entre diferentes grupos o un cambio de condiciones que facilitó la fosilización. Algunos ejemplos serían Wiwaxia, Pikaia, Hallucigenia, Opabinia, etc. Entre los ancestros de grupos posteriores destaca Anomalocaris, del Cámbrico, como posible ancestro de diversos grupos de artrópodos, por su cuerpo segmentado, evolucionado de Opabinia y otros similares. Los cordados podrían tener relación con Pikaia. En cuanto a la evolución de los filos, tradicionalmente los animales se clasificaron por simetría y su nivel de complejidad en grupos como Radiata, Mesozoa, Acoelomata, Coelomata, y Pseudocoelomata que resultaron ser polifiléticos. Actualmente no está bien claro como fue el último ancestro común de todos los animales ("Urmetazoa"), todos los análisis moleculares respaldan la teoría colonial que afirma que los animales surgieron de la unión colonial de protozoos similares a los coanoflagelados que es la teoría ampliamente aceptada para explicar el origen de los animales. Parece poco probable que los animales hayan surgido de un único ancestro en común dado a la falta de homología entre los poríferos y los animales verdaderos (Eumetazoa), por lo que es probable que hayan surgido dos veces de las colonias de coanoflagelados. Los poríferos son muy diferentes de los eumetazoos puesto que carecen de tejidos, sistema nervioso, notocordio y son generalmente inmóviles, de hecho Haeckel las clasificaba en el reino Protista. Según los análisis moleculares el grupo más basal de los eumetazoos es Ctenophora lo que sugiere que los bilaterios, cnidarios y placozoos evolucionaron de ancestros similares a los ctenóforos. El origen y el ancestro de los bilaterios es un tema oscuro, pero los análisis moleculares han favorecido dos hipótesis clásicas: la hipótesis "Planulozoa" considera que los bilaterios surgieron de la derivación pedomórfica de la larva de un cnidario y según este punto de vista los gusanos acelomados (platelmintos, nemertinos y xenacelomorfos) serían los bilaterales más primitivos derivándose posteriormente de ellos celomados y pseudocelomados. Esta hipótesis fue respaldada por algunos estudios, pero a la vez criticada por otros, dado que los xenacelomorfos como platelmintos, son linajes muy reducidos, ha habido cambios constantes en el genoma y mutan más rápidamente que cualquier tipo de animal conocido, así que sugerir que estos linajes ocupan posiciones en los árboles filogenéticos podría significar caer en la atracción de ramas largas. Por el contrario, la otra hipótesis "Urbilateria" considera que el ancestro de los bilaterios fue un celomado (es decir, complejo) y con características de deuteróstomo derivándose los restantes celomados, los pseudocelomados y acelomados. Esta hipótesis es la más probable para el primer ancestro bilateral. Dentro de Bilateria dos clados han sido bien establecidos Protostomia respaldado por todos los análisis moleculares y Deuterostomia respaldado por la mayoría de los análisis moleculares, aunque algunos más recientes han cuestionado la monofilia de los deuteróstomos sugiriendo que son parafiléticos. Estos se definen por el desarrollo embrionario, en protóstomos la boca se desarrolla primero y el ano después, en cambio en los deuteróstomos es lo contrario el ano primero y la boca por último. Los análisis moleculares han demostrado que los pseudocelomados y acelomados (exceptuando los xenacelomorfos) son protóstomos reducidos y que evolucionaron de ancestros celomados en diferentes líneas evolutivas por lo que son grupos polifiléticos. Estos filos se han clasificados junto con los anélidos, moluscos, artrópodos, en los clados Spiralia y Ecdysozoa respectivamente. Antiguamente se creía que los anélidos estaban más estrechamente con los artrópodos y que los lofoforados con quetognatos eran deuteróstomos, pero los análisis moleculares han demostrado que estos últimos pertenecen Spiralia junto con anélidos, moluscos, etc. La posición de los entoproctos que fue incierta durante muchos también se resolvió en Spiralia. El clado Spiralia contiene los (moluscos, anélidos, lofoforados, quetognatos, platelmintos, nemertinos, gastrotricos, rotíferos, entoproctos, ciclióforos, gnatostomúlidos, micrognatozoos, rombozoos), y el clado Ecdysozoa (artrópodos, tardígrados, onicóforos, nematodos, nematomorfos, quinorrincos, priapúlidos y loricíferos). Estos clados se han definido por la segmentación espiral del huevo y la muda de cutícula (ecdisis). En los análisis moleculares los filos pseudocelomados ocupan las posiciones más basales en Spiralia y Ecdysozoa lo que sugiere que los ancestros de los celomados protóstomos (ej.- artrópodos, moluscos, anélidos, etc.) fueron pseudocelomados. El ancestro de los platelmintos y nemertinos reducidos pudo haber sido un celomado emparentado con los anélidos. Por otra parte el supergrupo Deuterostomia incluye a los (cordados, equinodermos, hemicordados y xenacelomorfos), de estos filos los equinodermos y hemicordados forman un clado bien soportado por los análisis moleculares y morfológicos, el cual puede estar relacionado con los xenacelomorfos, a su vez los cordados conforman la rama más basal. En la evolución de los animales ha habido un grupo de animales que han sido difíciles de relacionar y que tradicionalmente se consideraron los más primitivos por su carácter simple se trata de los mesozoos (placozoos, ortonéctidos y rombozoos), sin embargo se ha demostrado que son formas totalmente reducidas por el parasitismo y que de hecho no tienen ningún parentesco. Los placozoos serían radiados reducidos, los ortonéctidos anélidos reducidos y los rombozoos descendientes de un linaje espiralio (Spiralia) reducido probablemente emparentado con los anélidos, platelmintos y nemertinos. Algunos filos fueron clasificados en otros filos como Echiura, Pogonophora, Sipuncula y Orthonectida que si bien no tienen la segmentación y metamerización típica de los anélidos la perdieron durante su evolución. Acanthocephala tradicionalmente considerado un filo separado se clasifican en los rotíferos, ya que evolucionaron de rotíferos según los análisis moleculares y morfológicos. También algunos animales llegaron al punto de ser unicelulares como Myxozoa que anteriormente se clasificaba como protistas. Los análisis moleculares han demostrado que Myxozoa evolucionó de un ancestro cnidario pluricelular emparentado con Polypodiozoa. Filogenia Filogenia clásica El siguiente cladograma representa las relaciones filogenéticas entre los diversos filos de animales. Está basada en la segunda edición de Brusca & Brusca (2005); se trata de una hipótesis filogenética "clásica" en la que se reconocen los grandes clados admitidos tradicionalmente (pseudocelomados, articulados, etc.) y asume la teoría colonial como la explicación sobre el origen de los metazoos. Investigaciones más recientes ofrecen una visión algo diferente. Según el punto de vista que se acaba de exponer, los bilaterales se subdividen en cuatro grandes linajes: Protóstomos acelomados Protóstomos esquizocelomados Protóstomos pseudocelomados Deuteróstomos Las modernas técnicas de secuenciación de bases del ADN, ARN y proteínas junto con la metodología de la cladística han permitido reinterpretar las relaciones filogenéticas de los distintos filos animales, lo que ha conducido a una revolución en la clasificación de los mismos. Actualmente la mayoría de los zoólogos aceptan las nuevas clasificaciones. Los animales bilaterales parecen pertenecer a uno de estos tres linajes: Deuteróstomos Protóstomos Ecdisozoos Espiralios Filogenia actual La filogenia de los animales al igual que otras filogenias es un tema no resuelto y todavía no se ha alcanzado un consenso amplio en cuanto a la relación filogenética de los determinados filos debido a la gran cantidad de hipótesis alternativas que se sugieren en los diversos artículos científicos. La filogenética molecular ha producido una revolución en las relaciones filogenéticas de los animales reemplazando muchas hipótesis tradicionales. Tampoco existe muchos datos morfológicos, fósiles y biogeográficos fiables como para tomar hipótesis alternativas. Especialmente las relaciones filogenéticas de los superfilos Spiralia y Ecdysozoa son tan ambiguas que no se puede llegar a un consenso sobre cual es la filogenia correcta. En cuanto a grupos extintos Vendobionta es un completo enigma evolutivo, tentativamente se le puede considerar en la base de la filogenia animal, aunque solo comparte con las esponjas su simplicidad y hábitat bentónico, además las esponjas serían menos antiguas que aquel. Recientemente se ha sugerido que los filos Rotifera, Rhombozoa, Ctenophora, Placozoa, Entoprocta, Platyhelminthes, Gastrotricha, Xenacoelomorpha, Chaetognatha y Gnathostomulida tienen tasas de evolución genética, lo que impide reconstruir el árbol filogenético y llevan a las atracciones de ramas largas. Análisis moleculares recientes (2019) utilizando especies de evolución lenta y otros estudios que intentan evitar el error sistemático han dado resultados posiblemente correctos. A diferencia de otros análisis moleculares convencionales que llevan a resultados contradictorios, estos análisis están de acuerdo con los análisis morfológicos y paleontológicos. A continuación se grafica el posible árbol de diversificación animal según sus conclusiones: Un árbol filogenético alternativo A continuación se muestra un árbol filogenético alternativo publicado en el libro "The Invertebrate Tree Of Life" (2020) es el propuesto por Gonzalo Giribet. Los nodos marcados son defendidos por el autor: Véase también Urmetazoo Especie en peligro de extinción Crueldad hacia los animales Derecho animal Derechos de los animales Historia de la zoología Refugio de animales Anexo:Clases del Reino Animal Wikiproyecto:Animales/Lista Referencias Bibliografía Conway, Morris, S. 1993. The fossil record and the early evolution of the Metazoa. Nature 361:219-225. An important summary correlating fossil and molecular evidence. Hickman, C. P., Ober, W. C. & Garrison, C. W. 2006. Principios integrales de zoología, 13.ª edición. McGraw-Hill-Interamericana, Madrid (etc.), XVIII+1022 pp. ISBN 84-481-4528-3. Storer, Tracy. General Zoology. 6th edition. MC. Graw Hill Book Company, Inc. Enlaces externos Mundos animales (en la página oficial de National Geographic) España. Tree of Life. Cladogramas actualizados del reino animal e información sobre los diferentes grupos . Enciclopedia de la vida . Enciclovida tiene un artículo sobre Animales (Reino Animalia). Naturalista tiene una ficha sobre Animales (Reino Animalia).
143_0
Anatomía
La anatomía es una ciencia, rama de la biología, que estudia la estructura de los seres vivos, es decir, la forma, topografía, ubicación, disposición y relación entre sí de los órganos que lo componen. Se puede clasificar en anatomía descriptiva, funcional y quirúrgica. La anatomía se basa ante todo en el examen descriptivo de los organismos vivos, no obstante la comprensión de esta arquitectura implica estudiar también la función, por lo que se relaciona con la fisiología y forma parte de un grupo de ciencias básicas llamadas ciencias morfológicas (biología del desarrollo, histología y antropología física), que completan su área de conocimiento. La anatomía humana es una de las ciencias básicas o preclínicas de la medicina. Al científico que cultiva esta ciencia se le denomina anatomista, el Diccionario de la lengua española de la Real Academia Española también acepta el término anatómico. Etimología Deriva del latín. anatomĭa, y del griego. ἀνατομία [anatomía]; derivado del verbo ἀνατέμνειν [anatémnein], ‘cortar’ o ‘separar’ compuesto de ἀνά [aná], ‘hacia arriba’ y τέμνειν [témnein], ‘cortar’). Subdivisiones Anatomía descriptiva o sistemática. Estudia de forma independiente los diferentes sistemas. La anatomía sistemática puede dividirse en varias ciencias: Neuroanatomía. Estudia el sistema nervioso. Miología. Estudia los músculos. Osteología. Estudia los huesos. Artrología. Estudia las articulaciones. Esplacnología. Estudia las diferentes vísceras, sobre todo las contenidas en tórax, abdomen y pelvis. Anatomía topográfica. También llamada anatomía quirúrgica o anatomía regional. Es la rama de la anatomía que estudia las relaciones que guardan entre sí los órganos y las estructuras situadas en una región determinada. Por lo tanto describe los organismos por regiones en las cuales pueden existir partes que pertenecen a diferentes sistemas. En anatomía topográfica cuando se describe un área se suele hacer desde la parte más superficial a la más profunda, por lo cual en una región típica del miembro inferior o superior humano existiría un primer plano formado por la piel, a continuación el tejido celular subcutáneo seguido de una aponeurosis superficial. Más en profundidad encontraremos uno o dos planos musculares y en el límite más profundo una estructura ósea formada por un hueso. Es preciso tener en cuenta que esta descripción es de tipo general y existen numerosas variaciones dependiendo del área concreta a considerar. Anatomía clínica. Estudia aquellos aspectos de la estructura y función que son útiles en la práctica de la medicina. Anatomía comparada. Estudia las semejanzas y diferencias entre las estructuras de organismos pertenecientes a diferentes especies. Anatomía microscópica o histología. Es la rama de la anatomía que estudia los tejidos utilizando el microscopio. Anatomía macroscópica: Se dedica al estudio de los órganos o partes del cuerpo lo suficientemente grandes para poderlas observar a simple vista, sin utilizar microscopio. Anatomía del desarrollo. También llamada embriología, se encarga de estudiar el desarrollo de los organismos desde el momento de la concepción hasta el nacimiento. Anatomía funcional: Estudia la morfología de los diferentes órganos y su relación con la función que realizan. Anatomía de superficie. Es el estudio de las estructuras anatómicas que se pueden observar desde el exterior del organismo. Incluye la determinación de una serie de puntos de referencia en la superficie que corresponden a la proyección de estructuras situadas en profundidad. Anatomía radiológica: Estudia la forma a través de las imágenes obtenidas mediante radiología simple, tomografía axial computarizada (TAC) o ecografía. Anatomía patológica. Es la rama de la medicina que estudia las bases morfológicas de la enfermedad. Anatomía artística: Estudia el arte anatómico. Anatomía vegetal: o fitotomía es el campo de la Botánica que estudia la estructura interna de las plantas. Anatomía animal: También llamada anatomía veterinaria, describe las estructuras morfológicas de los diferentes animales. Anatomía humana: Describe las estructuras morfológicas del cuerpo humano. Ciencias relacionadas La anatomía está relacionada con otras ciencias afines, entre ellas las siguientes: Embriología: Estudia el desarrollo embrionario de los diferentes organismos. Histología: Estudia la estructura de los órganos y tejidos desde el punto de vista microscópico. Fisiologia: Estudia la función de los órganos y sistemas. Patología. Rama de la medicina encargada del estudio de las enfermedades. Paleoantropología. Es la rama de la antropología física que se ocupa del estudio de la evolución humana y su registro fósil. Nomenclatura La terminología anatómica ha sido siempre objeto de debate, dado la gran cantidad de términos y la existencia de sinónimos y epónimos que en ocasiones pueden crear confusión. Por este motivo, anatomistas de diferentes países se han puesto de acuerdo para establecer una terminología común, estructurada, sistemática y universal que se actualiza regularmente en reuniones periódicas. Recibe el nombre de Terminología Anatómica Internacional y ha sido redactada por el Comité Internacional Federativo de Terminología Anatómica, se ha traducido a diferentes idiomas, entre ellos el español. Contiene alrededor de 7500 términos que corresponden a estructuras anatómicas macroscópicas humanas. Planos anatómicos Los planos anatómicos son planos imaginarios que cruzan el organismo y lo dividen en dos partes. Plano sagital. Atraviesa el cuerpo longitudinalmente y lo dividen en una mitad derecha y otra izquierda. Plano frontal. También llamado plano coronal, atraviesa el cuerpo de arriba hacia abajo y lo divide en una mitad anterior o frontal y una posterior o dorsal Plano transverso. Es un plano que atraviesa el cuerpo de alante hacia atrás y lo divide en una mitad superior y otra inferior. Direcciones Para el estudio de la anatomía se pueden usar direcciones anatómicas que indican localizaciones relativas. La base de direcciones del ser humano es muy parecido a la del resto de vertebrados. Los vertebrados se integran en esta metodología de estudio gracias a la disposición básica que comparten: Las principales direcciones anatómicas son: Cefálico o superior. Situado en la parte superior del cuerpo. Caudal o inferior. Cuando está situado en la parte inferior del cuerpo. Medial. Situado en la línea media o cerca de la línea media. Lateral. Situado lejos de la línea media. Ventral o anterior. Dorsal o posterior. Proximal. Situado cerca de su origen. Distal. Situado lejos de su origen. Superficial. Situado en la parte exterior del cuerpo. Profundo. Situado en la parte interna del cuerpo. Aferente. Se dice de lo que va de fuera hacia adentro, o de la periferia al centro. Eferente. Se dice de lo que va de dentro hacia afuera, o del centro hacia la periferia. Rostral. Hace referencia a la parte de un órgano o estructura que se encuentra más cerca de la cara. Palmar. Se refiere a la palma de la mano. Plantar. Se refiere a la planta del pie. En los animales vertebrados tetrápodos como el caballo, la postura anatómica estándar es aquella en la que el animal está parado, erguido y mirando al frente. De esta forma dorsal es superior, ventral es inferior, cefálico es delante y caudal detrás. Anatomía de los peces La anatomía de los peces está determinada por las características físicas del agua, mucho más densa que el aire, con menos oxígeno disuelto y una absorción mayor de la luz, y por el componente evolutivo de cada especie dentro de la superclase Pisces. Anatomía de los anfibios Los anfibios son tetrápodos con respiración branquial en la fase larvaria. En la fase adulta pierden las branquias y desarrollan pulmones, la circulación se vuelve doble, presentan un corazón con tres cámaras formado por un ventrículo y dos aurículas. Anatomía de los reptiles Los reptiles presentan un conjunto de adaptaciones morfológicas comunes a la mayor parte de los representantes de la clase. Entre ellas, la presencia de un exoesqueleto provisto de escamas córneas epidérmicas, extremidades pares con cinco dedos (excepto en las serpientes), esqueleto bien osificado, presencia de pulmones lo que les permite vivir en tierra firme, corazón con tres cámaras, dos aurículas y un ventrículo (excepto en los cocodrilos que poseen cuatro cámaras), fecundación interna y huevos cubiertos con cáscara. Anatomía de las aves La anatomía de las aves, presenta muchas adaptaciones destinadas, a hacer posible el vuelo. Las aves han evolucionado hasta poseer un sistema esquelético y muscular ligero y potente que, junto con los sistemas circulatorio y respiratorio, las hace capaces de desarrollar una oxigenación y actividad metabólica muy altas. Debido a estas especializaciones anatómicas, se les ha asignado una clase propia en el Filo de los cordados. Anatomía de los mamíferos En los mamíferos el cuerpo se divide en tres sectores: cabeza, troco y cola, aunque esta puede faltar, por ejemplo en el gorila, o transformarse en aleta como en las ballenas, en algunas especies la cola es prensil y puede utilizarse como extremidad. En el tronco existen cuatro extremidades que pueden estar adaptadas a la marcha, excavación, aprensión de objetos, vuelo (quirópteros) o natación (cetáceos). Las hembras presentan glándulas mamarias para alimentar con leche a los recién nacidos. La circulación es doble y completa, el corazón consta de cuatro cámaras como en las aves , dos aurículas y dos ventrículos. La respiración es pulmonar. El aparato digestivo presenta en algunos grupos como los rumiantes adaptaciones especiales. La fecundación es interna, el desarrollo embrionario suele tener lugar dentro del útero materno gracias a la placenta, aunque en algunos grupos el útero es rudimentario y el desarrollo se completa en una bolsa marsupial, como ocurre en los metaterios. En algunas especies como los monotremas (ornitorrinco) el desarrollo embrionario tiene lugar en un huevo, fuera del organismo materno. Anatomía humana La anatomía humana tiene muchas similitudes con la de la mayoría de los mamíferos. Para su mejor comprensión se divide en sistemas y aparatos. Sistema esquelético También llamado sistema óseo, está formado en un adulto humano por un total de 206 huesos. Representa alrededor del 12% del peso de un adulto. Los huesos se unen entre sí mediante articulaciones y están estrechamente unidos a ligamentos, tendones, y músculos. El esqueleto humano se divide en dos partes: Esqueleto axial, formado por el cráneo, columna vertebral, costillas y esternón. Consta de 80 huesos. Esqueleto apendicular, formado por los huesos de los miembros superiores e inferiores, junto con las cinturas escapular y pelviana. Consta de 126 huesos. Cintura escapular. Clavícula y omóplato. Miembro superior. Húmero, cúbito, radio, carpos, metacarpos,falanges. Cintura pelviana. Pelvis. Miembro inferior. Fémur, rótula, tibia, peroné, tarso, metatarso, falanges. Sistema muscular Está formado por los músculos voluntarios. Tiene por función lograr el movimiento del cuerpo. El conjunto de todos los músculos esqueléticos corresponde al 40% del peso de un adulto medio. Sistema nervioso El sistema nervioso está formado por el encéfalo, la médula espinal y los nervios periféricos. Los nervios pueden ser sensitivos que llevan información desde la periferia al encéfalo, motores que transportan señales desde el encéfalo a los músculos y mixtos que tienen fibras tanto sensitivas como motoras. La célula principal es la neurona que está dotada de prolongaciones que la unen a otras neuronas vecinas formando una compleja red de interconexiones. El sistema nervioso recoge información del mundo exterior a través de los sentidos o interna de los diferentes órganos, la procesa, y emite señales mediante los nervios motores que provocan la contracción de los músculos y el movimiento. También interviene en la producción de hormonas por las distintas glándulas (sistema neuroendocrino). Sistema circulatorio El sistema circulatorio o sistema cardiovascular está formado por un fluido que se llama sangre, un conjunto de conductos (arterias, venas, capilares) y una bomba impulsora que es el corazón. Es un sistema de transporte interno que sirve para mover dentro del organismo elementos nutritivos, metabolitos, oxígeno, dióxido de carbono, hormonas y otras sustancias. El sistema circulatorio humano, al igual que el de todos los mamíferos, es doble. La parte derecha del corazón envía la sangre no oxigenada hacia los pulmones a través de la arteria pulmonar, la sangre ya oxigenada es dirigida mediante las venas pulmonares hacia la parte izquierda del corazón que la distribuye por todo el cuerpo a través de la arteria aorta y sus ramas. La sangre se produce en la médula ósea roja, está formada por el plasma sanguíneo y los elementos formes que son plaquetas, glóbulos rojos(eritrocitos) y glóbulos blancos (leucocitos). Aparato digestivo El aparato digestivo está formado por el tubo digestivo y un conjunto de estructuras accesorias. El tubo digestivo se inicia en la boca y continúa por faringe, esófago, estómago, intestino delgado, intestino grueso y ano. Las estructuras accesorias son un conjunto de glándulas que vierten su secreción al tubo digestivo, incluyen las glándulas salivales que producen la saliva, páncreas, hígado y sistema biliar que transporta la bilis hasta el duodeno. Los alimentos pasan de la boca al esófago hasta llegar al estómago. En el estómago el alimento se mezcla con una secreción ácida y enzimas proteolíticas hasta formar una pasta semilíquida que recibe el nombre de quimo. El contenido del estómago se vacía en el duodeno, donde se añade la bilis producida por el hígado y el jugo pancreático del páncreas. En el intestino delgado es donde se absorben los nutrientes, después el intestino grueso absorbe sobre todo agua y sales minerales. Finalmente, las sustancias restantes pasan al recto y se excretan por el ano. Aparato respiratorio El aparato respiratorio es el conjunto de órganos que sirve para intercambiar gases entre el medio ambiente y la sangre. Está formado por laringe, tráquea, bronquios y pulmón. Aparato urinario Es un conjunto de órganos encargados de la producción, almacenamiento y expulsión de la orina. Está formado por dos riñones, dos uréteres, la vejiga urinaria y la uretra. Aparato reproductor masculino Está formado por los testículos, epidídimo, próstata, conducto deferente, uretra y pene. Aparato reproductor femenino Formado por ovarios, trompa de Falopio, útero, vagina y vulva. Sistema endocrino El sistema endocrino es el conjunto de órganos y tejidos del organismo que segregan un tipo de sustancias llamadas hormonas. Las hormonas son mensajeros químicos liberados por células, que alcanzan el torrente sanguíneo para regular a distancia diferentes funciones corporales, entre ellas la velocidad de crecimiento, la actividad de los tejidos, el metabolismo y el desarrollo y funcionamiento de los órganos sexuales. Una vez alcanzado el punto de destino, estos mediadores se unen a su receptor específico ubicado en la célula diana. Las glándulas principales productoras de hormonas son la glándula tiroides que produce tiroxina, el páncreas que produce insulina, la hipófisis que secreta numerosas hormonas y las glándula suprarrenal que producen cortisol, aldosterona y adrenalina. Glándulas exocrinas Las glándulas exocrinas son un conjunto de glándulas que se distribuyen por todo el organismo y producen sustancias no hormonales. Forman parte de sistemas diferentes, algunas de las más importantes son la glándula parótida que produce la saliva, la glándula mamaria que produce la leche,la glándula lacrimal que produce las lágrimas y las glándulas sudoríparas que producen el sudor. Sistema sensorial El sistema sensorial es la parte del sistema nervioso responsable de procesar la información procedente de los órganos de los sentidos. Está formado por los receptores sensoriales y aquellas partes del cerebro involucradas en el procesamiento de las señales. Los principales sistemas sensoriales son: visión desde receptores situados en el ojo, audición desde receptores situados en el oído interno, gusto desde receptores situados en la lengua, olfato desde receptores ubicados en las cavidades nasales, equilibrio desde receptores situados en el oído interno y tacto desde receptores ubicados en la piel. Sistema tegumentario Está formado por la piel, uñas, pelo, glándulas sudoríparas y glándulas sebáceas. La piel constituye una barrera que defiende el organismo de los agentes físicos y químicos externos y evita la invasión por bacterias y virus. Se divide en varias capas, la más exterior se llama epidermis y la más profunda dermis. Estructuras principales Historia de la anatomía Edad Antigua La anatomía como ciencia dio sus primeros pasos en la Antigua Grecia. Herófilo de Calcedonia (335a. C.-280a. C.), médico de la escuela de Alejandría, fue uno de los primeros en practicar disecciones de cadáveres humanos. Erasístrato (304a. C.–250a.C.) distinguió las principales estructuras del encéfalo y observo que los nervios convergían hacia el sistema nervioso central. Galeno de Pérgamo(Pérgamo, 129-Roma, c. 201/216), fue un médico y filósofo griego que vivió en el Imperio Romano. Elaboró un corpus inmenso, distribuido en más de 125 volúmenes, que trataban sobre el estudio anatómico-funcional de varios sistemas: el muscular, el nervioso, el respiratorio y el circulatorio. Su preponderancia como maestro de medicina duró más de 1400 años. Estos conocimientos, también se continuaron enseñando durante la Edad Media. Sin embargo las afirmaciones de Galeno contenían numerosos errores que se aceptaron sin crítica, muchos de ellos derivados de extrapolar estructuras observadas en animales a la especie humana. Edad Media El conocimiento anatómico de la Edad Media se basa en la aceptación de la anatomía galénica. Las clases impartidas por el profesor se hacían con la lectio del texto de Galeno, las escasas disecciones en cadáveres eran realizadas por un practicante mientras se leía al clásico, sin crítica. Edad Moderna La Medicina galénica comienza a ser cuestionada desde la anatomía. Andrés Vesalio, considerado como el padre de la Anatomía moderna, se dedicó a la disección de cadáveres para la obtención de conocimiento anatómico. Plasmó sus observaciones en su De humani corporis fabrica. Edad Contemporánea La aparición del microscopio abrió un nuevo mundo descriptivo microscópico, la anatomía microscópica o histología, y la paulatina conversión de la anatomía en dinámica a partir de la estática fábrica de Vesalio, incorporando función y relación dentro de sus observaciones. Anatomía artística La representación del cuerpo humano no depende únicamente del conocimiento de la anatomía, ya que los diferentes estilos artísticos no pretenden en muchas ocasiones el realismo. Las pinturas del Antiguo Egipto, por ejemplo, muestran una serie de convencionalismos que adoptan la anatomía real a la conveniencia del artista. Por el contrario, en la Antigua Grecia se estudia la morfología con meticulosidad y se pretende representar a la figura humana en su máxima perfección. Durante el Renacimiento, muchos artistas famosos estudiaron anatomía del natural e incluso practicaron ellos mismos disecciones para mejorar la representación del cuerpo humano, entre ellos Miguel Ángel, Rafael, Durero y Leonardo da Vinci. Asociaciones anatómicas Federación Internacional de Asociaciones de Anatomistas Asociación Panamericana de Anatomía Asociación Centroamericana y del Caribe de Anatomía International Journal of Morphology Academia Panamericana de Anatomía Notas Referencias Bibliografía Has a chronological table of publications in an appendix. Losardo, Ricardo J.; Binvignat-Gutiérrez, O.: Simbología gráfica anatómica en el proceso de comunicación.. International Journal of Morphology, 39 (3): 739-742, 2021 Losardo, Ricardo J.: La primera Lección de Anatomía de Rembrandt” Revista de la Asociación Médica Argentina 135 (4): 20-32, 2022. Véase también Anatomía humana Autopsia Disección Terminología anatómica de localización Terminología Morfológica Internacional Enlaces externos Portal de Anatomía de Radiología con foros de discusión. Guías de Neuroanatomía. Recursos de Anatomía. Diccionario Anatomía. Imágenes de la Anatomía. Bernardino Montaña de Monserrate, Libro de la anatomía del hombre, siglo XVI. Medicina Disciplinas auxiliares de la Antropología Disciplinas de la biología
144_0
Anatomía humana
La anatomía humana es una rama de la biología humana que se dedica al estudio de la forma y estructura del cuerpo humano y las relaciones que existen entre las diferentes partes que lo componen. El tėrmino procede del griego ana que significa arriba y tomos que significa cortar. La anatomía permite entender la organización básica del cuerpo humano y los principios de funcionamiento de sus estructuras. Se relaciona con otras ciencias afines como la histología que estudia los tejidos, y la fisiología humana que estudia la función. Niveles de organización El cuerpo humano se organiza en grados de complejidad creciente que reciben el nombre de niveles de organización. En orden ascendente de lo microscópico a lo macroscópico son los siguientes: Nivel químico o molecular. El cuerpo humano está formado por átomos que se agrupan para formar moléculas. Varias moléculas pueden unirse para dar lugar a compuestos más grandes y complejos que se llaman macromoléculas. Nivel celular. Diferentes moléculas dan lugar a las células que son las unidades vivas más pequeñas del cuerpo. Nivel tisular. Un conjunto de células especializadas en una función se agrupan para formar un tejido, por ejemplo el tejido muscular. Nivel orgánico. Los órganos son estructuras formadas por tejidos que realizan una función determinada. Por ejemplo el corazón está formado por tejido muscular y tiene la función de bombear la sangre hacia los diferentes vasos sanguíneos. Nivel de aparatos y sistemas. Varios órganos que participan en la realización de una función determinada dan lugar a las aparatos y sistemas. Por ejemplo el corazón y los vasos sanguíneos forman el aparato circulatorio. Nivel de organismo. El conjunto de los aparatos y sistemas funcionando de forma coordinada da lugar al organismo humano. Ramas y divisiones de la anatomía Dependiendo del punto de vista que se utilice, la anatomía humana se puede dividir en diferentes partes: Anatomía sistemática o anatomía descriptiva. Estudia el organismo humano por sistemas y aparatos, describiendo su forma y características. La clásica distinción entre sistemas y aparatos ha perdido vigencia en las últimas décadas y en la actualidad la mayor parte de los textos no hacen distinción entre ambos. En anatomía un sistema es un conjunto de órganos que comparten la misma función, por ejemplo sistema respiratorio o sistema circulatorio. La neuroanatomía es la parte de la anatomía sistemática que estudia el sistema nervioso en forma extensiva. Anatomía topográfica, también llamada anatomía quirúrgica o anatomia regional. Es la rama de la anatomía que estudia las relaciones que guardan entre sí los órganos y las estructuras situadas en una región determinada del organismo. Por lo tanto describe el cuerpo por regiones en las cuales pueden existir partes que pertenecen a diferentes sistemas. Por ejemplo, si se estudia el tórax, se describen todas sus estructuras y la localización de cada una de ellas en relación con el resto, incluyendo corazón, pulmón, cavidad pleural, pericardio, vasos sanguíneos, músculos, huesos y nervios periféricos. En anatomía topográfica cuando se describe un área se suele hacer desde la parte más superficial a la más profunda, por lo cual en una región típica del miembro inferior o superior existiría un primer plano formado por la piel, a continuación el tejido celular subcutáneo seguido de una aponeurosis superficial. Más en profundidad encontraremos uno o dos planos musculares y en el límite más profundo una estructura ósea formada por un hueso. Es preciso tener en cuenta que esta descripción es de tipo general y existen numerosas variaciones dependiendo del área concreta a considerar. Anatomía de superficie. Es el estudio de las estructuras anatómicas que se pueden observar desde el exterior del organismo. Incluye asimismo la determinación de una serie de puntos de referencia en la superficie que corresponden a la proyección de estructuras situadas en profundidad. Anatomía artística: trata de las cuestiones anatómicas que afectan directamente a la representación artística de la figura humana. Comprender la morfología y la estructura del cuerpo humano es esencial para su representación. Anatomía clínica. Pone énfasis en el estudio de la estructura y la función en relación con situaciones de enfermedad. Anatomía radiológica. Estudia la forma de las distintas regiones del organismo humano a través de las imágenes obtenidas en diferentes pruebas médicas, entre ellas radiografías simples, tomografía axial computarizada y resonancia magnética nuclear. Anatomía funcional. Estudia la relación entre la forma de los órganos pertenecientes a los diferentes sistemas con la función que realizan, por lo que se relaciona con la fisiología. Anatomía comparada. Estudia las semejanzas y diferencias entre las estructuras morfológicas de organismos pertenecientes a diferentes especies. Posición anatómica Es una posición unificada que se utiliza como referencia en las descripciones anatómicas. La persona está de pie con el rostro dirigido hacia delante, las piernas deben estar juntas, los pies apoyados sobre el suelo, los brazos pegados al cuerpo y extendidos con las palmas de las manos giradas hacia delante. Sobre está posición se utilizan varios términos para indicar la situación de una estructura, región u órgano: Proximal y distal. Medial y lateral. Anterior (ventral) y posterior (dorsal). Superior (craneal) e inferior (caudal). Superficial y profundo. Términos de relación Flexión - extensión. Pronación - supinación. Abducción - aducción. Rotación interna - rotación externa. Oposición- reposición. La oposición permite el contacto del pulgar con la yema de los demás dedos, la reposición es el movimiento inverso. Protrusión - retrusión. Protrusión es el movimiento hacia delante del maxilar inferior y retrusión hacia atrás. Planos anatómicos Los planos corporales son superficies imaginarias que dividen el cuerpo en secciones. Sirven para facilitar la descripción y localización de las diferentes estructuras anatómicas. Plano sagital. Divide el cuerpo en un lado derecho y otro izquierdo. Plano frontal o coronal. Divide el cuerpo en una porción anterior y otra posterior. Plano transversal o axial. Divide el cuerpo en una porción superior y otra inferior. Sistemas y aparatos del cuerpo humano Un sistema es un grupo de órganos formados predominantemente por los mismos tipos de tejidos que realizan una función coordinada. Un aparato es un grupo de órganos que desempeñan una función común, los órganos que forman el aparato tienen diferente origen embriológico. En la actualidad esta diferenciación ha perdido vigencia y la mayor parte de los textos de anatomía y fisiología usan de forma indistinta los dos términos. Sistema inmunológico. Proporciona la capacidad para que el cuerpo distinga sus propias células y tejidos de las células de los agentes externos. Destruye las bacterias y virus patógenos mediante varios mecanismos, entre ellos el sistema del complemento, los anticuerpos y diferentes tipos de células, entre ellas los linfocitos, localizadas principalmente en médula ósea, timo, bazo, ganglios linfáticos y tejido linfoide asociado a las mucosas (MALT). Sistema tegumentario: Comprende la piel, pelo, uñas y glándulas sudoríparas. Actúa como una barrera entre el ambiente externo y el ambiente interno que sirve para proteger el cuerpo, mantener el equilibrio hídrico y regular la temperatura corporal. Contiene numerosos receptores sensoriales. Sistema nervioso: Su función es la recogida, transferencia y procesado de información, así como la emisión de impulsos motores que alcanzan los músculos y provocan el movimiento. Está formado por el sistema nervioso central (encéfalo y médula espinal) y el sistema nervioso periférico que comprende los nervios sensitivos y motores de todo el cuerpo. Sistema endocrino. Está formado por un conjunto de glándulas que producen hormonas. Las hormonas son mensajeros químicos liberados por células, que alcanzan el torrente sanguíneo para regular a distancia diferentes funciones corporales, entre ellas la velocidad de crecimiento, la actividad de los tejidos, el metabolismo, el desarrollo y funcionamiento de los órganos sexuales. Las principales glándulas endocrinas son: hipófisis, tiroides, glándulas suprarrenales, páncreas, ovario y testículos. Algunas hormonas son producidas por células secretoras que se encuentran en órganos que no son glándulas endocrinas, por ejemplo el riñón que produce eritropoyetina. Sistema circulatorio, también llamado sistema cardiovascular o aparato circulatorio. Está formado por el corazón, los vasos sanguíneos (venas, arterias y capilares) y los vasos linfáticos. Las dos arterias principales son la arteria aorta que se subdivide en numerosas ramas y lleva sangre oxigenada o todo el organismo, y la arteria pulmonar que lleva sangre desoxigenada hasta el pulmón. Aparato locomotor: conjunto de los sistemas esquelético y muscular. Estos sistemas coordinados por el sistema nervioso permiten el movimiento. Sistema muscular. Está formado por el conjunto de músculos voluntarios. Tiene por función lograr el movimiento del cuerpo. El conjunto de todos los músculos esqueléticos corresponde al 40% del peso de un adulto medio. Sistema óseo. Está formado por los huesos, articulaciones y ligamentos asociados que en conjunto forman el esqueleto humano. Tiene las funciones de apoyo estructural, protección y asistencia en el movimiento. Además juega un papel importante en el mantenimiento de los niveles de calcio y fósforo en sangre y en la producción de las células que forman la sangre (hematopoyesis). El conjunto de los huesos representa por término medio el 18% del peso total de un adulto. El esqueleto de un adulto está formado por 206 huesos, 8 en el cráneo, 3 en cada oído, 14 en la cara, el hueso hioides situado en el cuello, 26 en la columna vertebral, 25 en el tórax (24 costillas y esternón), 4 en la cintura escapular (2 escápula y 2 clavículas), 30 en cada miembro superior, 2 en la cintura pélvica ( 2 coxales resultado cada uno de la fusión de ilion, isquion y pubis) y 30 en cada miembro inferior. Aparato digestivo: Está formado por la boca, faringe, esófago, estómago, intestino delgado, intestino grueso y glándulas anexas que incluyen el hígado y el páncreas. Transforma mecánica y químicamente los alimentos y los convierte en moléculas asimilables mediante las enzimas, para poder absorberlas a través de la pared del intestino. Aparato excretor o sistema urinario. Su función es la eliminación de sustancias tóxicas y desechos del cuerpo mediante la orina. Está formado por los riñones, uréteres, vejiga urinaria y uretra. Aparato reproductor masculino. Está formado por los testículos, próstata, conducto deferente, uretra y pene. Aparato reproductor femenino. Formado por ovarios, trompa de Falopio, útero, vagina y vulva. Aparato respiratorio o sistema respiratorio. Está formado por la nariz, faringe, laringe, tráquea, bronquios y pulmones. Su función es el transporte del aire atmosférico hasta los alveolos pulmonares donde se produce el intercambio de gases entre el aire y la sangre. La sangre capta el oxígeno y de desprende del dióxido de carbono. La rama de la medicina que estudia las enfermedades de los pulmones es la neumología, mientras que la otorrinolaringología se ocupa de las enfermedades de nariz, faringe, laringe y tráquea. Anatomía topográfica Según un criterio topográfico, el cuerpo humano se estudia por regiones: Cabeza. En la cabeza pueden distinguirse dos regiones que son el cráneo y la cara. Cráneo. Es una estructura ósea que envuelve el encéfalo. Consta de neurocráneo o cavidad craneal y esqueleto facial. El neurocráneo está formado por ocho huesos: frontal, occipital, etmoides, esfenoides, dos temporales y dos parietales. Cara. La forma de la cara está muy influida por los huesos que la configuran, principalmente el maxilar superior, el maxilar inferior, el hueso nasal y el hueso cigomático. En la cara se insertan los músculos de la mímica como el orbicular de los párpados y el buccinador, también los músculos de la masticación como el masetero, y aloja algunos de los órganos de los sentidos. Se distinguen diferentes estructuras, entre ellas párpado, ojo, nariz, boca, mejilla, labio y barbilla. Cuello. Es el área de transición entre la cabeza y el tronco. A través del cuello pasan diferentes estructuras, entre ellas la laringe, tráquea, esófago, arteria carótida y vena yugular. En el cuello se encuentran también las glándulas tiroides y paratiroides. Tronco. El tronco queda dividido por el diafragma en una región superior que se llama tórax y una inferior que es el abdomen. En el tórax se encuentra el corazón, los pulmones y los grandes vasos sanguíneos. En el abdomen se encuentran los órganos responsables de la digestión, incluyendo esófago, estómago, intestino delgado e intestino grueso. Asimismo contiene el hígado, páncreas, aparato urinario ( riñones y vejiga urinaria), y los aparatos reproductores, tanto masculino como femenino. En la parte inferior del abdomen se encuentra la pelvis. Miembro superior. Se compone de cuatro segmentos: cintura escapular, brazo, antebrazo y mano. Tiene en total 32 huesos y 45 músculos. Las articulaciones principales son hombro, codo y muñeca. El riego sanguíneo procede de las arterias subclavias (derecha e izquierda), el retorno venoso tiene lugar a través de las venas subclavias. Cintura escapular. En esta región se localizan los siguientes mŭsculos: músculo pectoral mayor, músculo pectoral menor,músculo subclavio, músculo serrato anterior, músculo supraespinoso, músculo infraespinoso, músculo redondo mayor, músculo redondo menor, músculo subescapular y músculo deltoides'. Brazo. Dispone de dos músculos, el bíceps braquial y el tríceps braquial. Antebrazo. Está región cuenta con 20 músculos diferentes, algunos son flexores de los dedos como el músculo flexor común profundo de los dedos de la mano y otros extensores, como el músculo extensor común de los dedos. Mano. Se compone de carpo, metacarpo y falanges. Miembro inferior. Se compone de cuatro segmentos: cintura pelviana, muslo, pierna y pie. Las articulaciones principales son cadera, articulación de la rodilla y tobillo. La sangre llega al miembro inferior a través de la arteria ilíaca externa, la circulación de retorno tiene lugar mediante la vena ilíaca externa. Cintura pelviana. En la región posterior o zona glútea se localizan los siguientes músculos, desde la zona superficial a la profunda: músculo glúteo mayor, músculo piriforme, músculo gémino superior, músculo obturador interno, músculo gémino inferior y músculo cuadrado crural. Muslo. En esta región se encuentra el cuádricep, los músculos aductores de la cadera y los isquiotibiales (bíceps femoral, músculo semitendinoso, músculo semimembranoso), Pierna. En la zona anterior el músculo tibial anterior y en la posterior el tríceps sural (gemelos). Pie. Se compone de tarso, metatarso y falanges. Cavidades corporales El organismo humano a pesar de su apariencia sólida, contiene diferentes espacios o cavidades, en las cuales se localizan muchos órganos internos. Las principales cavidades son: Cavidad dorsal. Se divide en cavidad craneal y cavidad vertebral. Cavidad craneal. En su interior se encuentra el encéfalo. Cavidad vertebral. Se encuentra situada en la columna vertebral y contiene la médula espinal. Cavidad ventral. Corresponde a toda la región anterior del tronco. Contiene la cavidad torácica y la cavidad abdominopélvica. Cavidad torácica. En este espacio se localiza el corazón y los pulmones. Cavidad abdominopélvica. Esta situada por debajo de la cavidad torácica de la que está separada por el diafragma. Se divide en cavidad abdominal y cavidad pélvica. Cavidad abdominal. Contiene numerosos órganos, entre ellos estómago, intestino delgado, intestino grueso, hígado, páncreas, bazo, riñón y glándulas suprarrenales. Cavidad pélvica. Esta situada debajo de la cavidad abdominal. Contiene la vejiga urinaria, una porción del intestino grueso y varios órganos del sistema reproductor. Historia de le anatomía Mondino de Luzzi (1270-1326), fue un médico italiano bellako, considerado una figura clave que reintrodujo la enseñanza sistemática de la anatomía en los estudios de medicina, practicó disecciones y escribió en 1316 su Anathomia Mundini (Anatomía de Mondino) que circuló ampliamente de forma manuscrita, se imprimió en 1478 y fue el manual estándar para la enseñanza durante muchas generaciones, hasta la época de Andreas Vesalius. Su obra sigue las afirmaciones de Galeno y aunque a veces realizó descripciones inexactas de los órganos internos, dio inicio a un nuevo periodo en la ciencia anatómica. Andreas Vesalius fue un médico del que está considerado el precursor de la anatomía moderna. Escribió un tratado basado en sus observaciones directas de las estructuras corporales, ampliamente ilustrado mediante grabados, que tituló De humani corporis fabrica (Sobre la estructura del cuerpo humano). Esta obra por su claridad y rigor expositivo está considerada el primer tratado moderno de anatomía y en ella se desvelan los errores que se habían transmitidos durante generaciones, partiendo de las afirmaciones no ajustadas a la realidad de Aristóteles, Galeno y Mondino de Luzzi. Vesalio basó su obra en la observación directa de los cadáveres, realizando el mismo las disecciones, lo que suponía una ruptura con la práctica entonces vigente de obtener los conocimientos a partir de los textos clásicos y no de la investigación directa. Otro gran anatomista, contemporáneo de Andreas Vesalius fue Bartolomeo Eustachio, autor de Tabulae anatomicae, Venecia, 1552. Una de las aportaciones de Eustachio fue la descripción del sistema auditivo, donde descubrió un canal de comunicación entre el oído medio y el cavum que en su honor recibe el nombre de trompa de Eustaquio. Historia de la anatomía artística Los descubrimientos de la anatomía humana está íntimamente ligado a la anatomía artística, ambas disciplinas discurren paralelas a la historia del desnudo en el arte. Praxíteles fue un escultor griego del que estudió las proporciones del cuerpo humano y estableció el llamado canon de Praxíteles, según el cual la altura de la figura humana ideal debe corresponder a ocho veces la longitud de la cabeza, de esta forma se orienta más hacia un canon de belleza ideal que a la representación exacta de las proporciones del cuerpo humano. Los griegos no tenían necesidad de diseccionar cadáveres para efectuar representaciones figurativas del cuerpo humano, sin embargo durante el Renacimiento, muchos artistas famosos estudiaron anatomía del natural e incluso practicaron ellos mismos disecciones para mejorar la representación del cuerpo humano, entre ellos Miguel Ángel, Rafael, Durero y Leonardo da Vinci. Véase también Anatomía Anatomía de Gray La Terminología Anatómica Oficial Lista de anatomistas Referencias Bibliografía Maimone, Giuseppe, 1992: Anatomía artística, Edizioni Scientifiche Italiane. Goldscheider, Ludwig, 1953: Michelangelo'', The Paidon Press, London. Enlaces externos Wikiproyecto:Anatomía Humana anatomía humana Anatomía Humana
154_0
Astronomía
La astronomía (del griego άστρον [ástron] 'estrella' y νομία [nomía] 'normas', 'leyes de las estrellas') es la ciencia natural que estudia los cuerpos celestes del universo, incluidos las estrellas, los planetas, sus satélites naturales, los asteroides, cometas y meteoroides, la materia interestelar, las nebulosas, la materia oscura, las galaxias y demás; por lo que también estudia los fenómenos astronómicos ligados a ellos, como las supernovas, los cuásares, los púlsares, la radiación cósmica de fondo, los agujeros negros, entre otros, así como las leyes naturales que las rigen. La astronomía, asimismo, abarca el estudio del origen, desarrollo y destino final del universo en su conjunto mediante la cosmología, y se relaciona con la física a través de la astrofísica, la química con la astroquímica y la biología con la astrobiología. Su registro y la investigación de su origen viene a partir de la información que llega de ellos a través de la radiación electromagnética o de cualquier otro medio. La mayoría de la información usada por los astrónomos es recogida por la detección remota, aunque se ha conseguido reproducir, en algunos casos, en laboratorios, la ejecución de fenómenos celestes, como, por ejemplo, la química molecular del medio interestelar. Es una de las pocas ciencias en las que los aficionados aún pueden desempeñar un papel activo, especialmente sobre el descubrimiento y seguimiento de fenómenos como curvas de luz de estrellas variables, descubrimiento de asteroides y cometas, etc... La astronomía ha estado ligada al ser humano desde la antigüedad y todas las civilizaciones han tenido contacto con esta ciencia. Personajes como Aristóteles, Tales de Mileto, Anaxágoras, Aristarco de Samos, Hiparco de Nicea, Claudio Ptolomeo, Hipatia de Alejandría, Nicolás Copérnico, Tycho Brahe, Johannes Kepler, Galileo Galilei, Christiaan Huygens o Edmund Halley han sido algunos de sus cultivadores. La metodología científica de este campo empezó a desarrollarse a mediados del . Un factor clave fue la introducción del telescopio por Galileo Galilei, que permitió examinar el cielo de la noche más detalladamente. El tratamiento matemático de la Astronomía comenzó con el desarrollo de la mecánica celeste y con las leyes de gravitación por Isaac Newton, aunque ya había sido puesto en marcha por el trabajo anterior de astrónomos como Johannes Kepler. Hacia el , la astronomía se había desarrollado como una ciencia formal, con la introducción de instrumentos tales como el espectroscopio y la fotografía, que permitieron la continua mejora de telescopios y la creación de observatorios profesionales. Etimología La palabra astronomía proviene del latín /astronomía/ y esta del griego /astronomía/. Está compuesta por las palabras // 'estrellas', que a su vez viene de // 'estrella', 'constelación', y /nómos/ 'regla', 'norma', 'orden'. El lexema // está vinculado con las raíces protoindoeuropeas *ster~/*~stel (sust.) 'estrella' presente en la palabra castiza «estrella» que llega desde la latina «stella». También puede vérsele en: astrología, asteroide, asterisco, desastre, desastroso y muchas otras. El lexema ~ // 'regulación', 'legislación'; viene de /némoo/ 'contar', 'asignar', 'tomar', 'distribuir', 'repartir según las normas' y está vinculado a la raíz indoeuropea *nem~ 'contar', 'asignar', 'tomar', distribuir'; más el lexema ~ /~/ 'acción', 'cualidad'. Puede vérsela en: dasonomía, macrotaxonomía, tafonomía y taxonomía. Etimológicamente hablando la astronomía es la ciencia que trata de la magnitud, medida y movimiento de los cuerpos celestes. Historia Revolución científica Durante siglos, la visión geocéntrica que consistía en que el Sol y otros planetas giraban alrededor de la Tierra no se cuestionó. Esta visión era lo que para nuestros sentidos se observaba. En el Renacimiento, Nicolás Copérnico propuso el modelo heliocéntrico del sistema solar. Su trabajo De Revolutionibus Orbium Coelestium fue defendido, divulgado y corregido por Galileo Galilei y Johannes Kepler, autor de Harmonices Mundi, en el cual se desarrolla por primera vez la tercera ley del movimiento planetario. Galileo añadió la novedad del uso del telescopio para mejorar sus observaciones. La disponibilidad de datos observacionales precisos llevó a indagar en teorías que explicasen el comportamiento observado (véase su obra Sidereus Nuncius). Al principio solo se obtuvieron reglas Ad hoc, como las leyes del movimiento planetario de Kepler, descubiertas a principios del . Fue Isaac Newton quien extendió hacia los cuerpos celestes las teorías de la gravedad terrestre y conformando la ley de gravitación universal, inventando así la mecánica celeste, con lo que explicó el movimiento de los planetas y consiguiendo unir el vacío entre las leyes de Kepler y la dinámica de Galileo. Esto también supuso la primera unificación de la astronomía y la física (véase Astrofísica). Tras la publicación de los Principios Matemáticos de Isaac Newton (que también desarrolló el telescopio reflector), se transformó la navegación marítima. A partir de 1670 aproximadamente, utilizando instrumentos modernos para medir la latitud y la longitud geográficas y los mejores relojes disponibles, se ubicó cada lugar de la Tierra en un planisferio o mapa, calculando para ello su latitud y su longitud. La determinación de la latitud fue fácil, pero la determinación de la longitud fue mucho más delicada, por su acoplamiento con la hora local. Los requerimientos de la navegación supusieron un empuje para el desarrollo progresivo de observaciones astronómicas e instrumentos más precisos, constituyendo una base de datos creciente para los científicos. Durante los siglos al , se presenta el problema de los tres cuerpos, donde Euler, Clairaut y D'Alembert llevan predicciones más precisas sobre los movimientos de la luna y los planetas. Este trabajo es perfeccionado por Lagrange y Laplace, permitiendo estimar las masas de los planetas y lunas a partir de sus perturbaciones. Nueva astronomía A finales del se descubrió que, al descomponer la luz del Sol, se podían observar multitud de líneas de espectro (regiones en las que había poca o ninguna luz). Experimentos con gases calientes mostraron que las mismas líneas podían ser observadas en el espectro de los gases, líneas específicas correspondientes a diferentes elementos químicos. De esta manera se demostró que los elementos químicos en el Sol (mayoritariamente hidrógeno) podían encontrarse igualmente en la Tierra. De hecho, el helio fue descubierto primero en el espectro del Sol y solo más tarde se encontró en la Tierra, de ahí su nombre. Se descubrió que las estrellas eran objetos muy lejanos y con el espectroscopio se demostró que eran similares al Sol, pero con una amplia gama de temperaturas, masas y tamaños. La existencia de la Vía Láctea como un grupo separado de estrellas no se demostró sino hasta el , junto con la existencia de galaxias externas y, poco después, la expansión del universo, observada en el efecto del corrimiento al rojo. La astronomía moderna también ha descubierto una variedad de objetos exóticos como los cuásares, púlsares, radiogalaxias, agujeros negros, estrellas de neutrones, y ha utilizado estas observaciones para desarrollar teorías físicas que describen estos objetos. La cosmología hizo grandes avances durante el , con el modelo del Big Bang fuertemente apoyado por la evidencia proporcionada por la astronomía y la física, como la radiación de fondo de microondas, la ley de Hubble y la abundancia cosmológica de los elementos químicos. Durante el , la espectrometría avanzó, en particular como resultado del nacimiento de la física cuántica, necesaria para comprender las observaciones astronómicas y experimentales. Astronomía observacional Estudio de la orientación por las estrellas Para ubicarse en el cielo, se agruparon las estrellas que se ven desde la Tierra en constelaciones. Así, continuamente se desarrollan mapas (cilíndricos o cenitales) con su propia nomenclatura astronómica para localizar las estrellas conocidas y agregar los últimos descubrimientos. Aparte de orientarse en la Tierra a través de las estrellas, la astronomía estudia el movimiento de los objetos en la esfera celeste, para ello se utilizan diversos sistemas de coordenadas astronómicas. Estos toman como referencia parejas de círculos máximos distintos midiendo así determinados ángulos respecto a estos planos fundamentales. Estos sistemas son principalmente: Sistema altacimutal, u horizontal que toma como referencias el horizonte celeste y el meridiano del lugar. Sistemas horario y ecuatorial, que tienen de referencia el ecuador celeste, pero el primer sistema adopta como segundo círculo de referencia el meridiano del lugar mientras que el segundo se refiere al círculo horario (círculo que pasa por los polos celestes). Sistema eclíptico, que se utiliza normalmente para describir el movimiento de los planetas y calcular los eclipses; los círculos de referencia son la eclíptica y el círculo de longitud que pasa por los polos de la eclíptica y el punto γ. Sistema galáctico, se utiliza en estadística estelar para describir movimientos y posiciones de cuerpos galácticos. Los círculos principales son la intersección del plano ecuatorial galáctico con la esfera celeste y el círculo máximo que pasa por los polos de la Vía Láctea y el ápice del Sol (punto de la esfera celeste donde se dirige el movimiento solar). La astronomía de posición es la rama más antigua de esta ciencia. Describe el movimiento de los astros, planetas, satélites y fenómenos como los eclipses y tránsitos de los planetas por el disco del Sol. Para estudiar el movimiento de los planetas se introduce el movimiento medio diario que es lo que avanzaría en la órbita cada día suponiendo movimiento uniforme. La astronomía de posición también estudia el movimiento diurno y el movimiento anual del Sol. Son tareas fundamentales de la misma la determinación de la hora y para la navegación el cálculo de las coordenadas geográficas. Para la determinación del tiempo se usa el tiempo de efemérides o también el tiempo solar medio que está relacionado con el tiempo local. El tiempo local en Greenwich se conoce como Tiempo Universal. La distancia a la que están los astros de la Tierra en el de universo se mide en unidades astronómicas, años luz o pársecs. Conociendo el movimiento propio de las estrellas, es decir lo que se mueve cada siglo sobre la bóveda celeste se puede predecir la situación aproximada de las estrellas en el futuro y calcular su ubicación en el pasado viendo como evolucionan con el tiempo la forma de las constelaciones. Instrumentos de observación Para observar la bóveda celeste y las constelaciones más conocidas no hará falta ningún instrumento, para observar cometas o algunas nebulosas solo serán necesarios unos prismáticos, los grandes planetas se ven a simple vista; pero para observar detalles de los discos de los planetas del sistema solar o sus satélites mayores bastará con un telescopio simple. Si se quiere observar con profundidad y exactitud determinadas características de los astros, se requieren instrumentos que necesitan de la precisión y tecnología de los últimos avances científicos. Astronomía visible El telescopio fue el primer instrumento de observación del cielo. Aunque su invención se le atribuye a Hans Lippershey, el primero en utilizar este invento para la astronomía fue Galileo Galilei quien decidió construirse él mismo uno. Desde aquel momento, los avances en este instrumento han sido muy grandes como mejores lentes y sistemas avanzados de posicionamiento. Actualmente, el telescopio más grande del mundo se llama Very Large Telescope y se encuentra en el observatorio Paranal, al norte de Chile. Consiste en cuatro telescopios ópticos reflectores que se conjugan para realizar observaciones de gran resolución. Astronomía del espectro electromagnético o radioastronomía Se han aplicado diversos conocimientos de la física, las matemáticas y de la química a la astronomía. Estos avances han permitido observar las estrellas con muy diversos métodos. La información es recibida principalmente de la detección y el análisis de la radiación electromagnética (luz, infrarrojos, ondas de radio), pero también se puede obtener información de los rayos cósmicos, neutrinos y meteoros. Estos datos ofrecen información muy importante sobre los astros, su composición química, temperatura, velocidad en el espacio, movimiento propio, distancia desde la Tierra y pueden plantear hipótesis sobre su formación, desarrollo estelar y fin. El análisis desde la Tierra de las radiaciones (infrarrojos, rayosX, rayos gamma, etc.) no solo resulta obstaculizado por la absorción atmosférica, sino que el problema principal, vigente también en el vacío, consiste en distinguir la señal recogida del «ruido de fondo», es decir, de la enorme emisión infrarroja producida por la Tierra o por los propios instrumentos. Cualquier objeto que no se halle a (-273,15 °C) emite señales electromagnéticas y, por ello, todo lo que rodea a los instrumentos produce radiaciones de «fondo». Hasta los propios telescopios irradian señales. Realizar una termografía de un cuerpo celeste sin medir el calor al que se halla sometido el instrumento resulta muy difícil: además de utilizar película fotográfica especial, los instrumentos son sometidos a una refrigeración continua con helio o hidrógeno líquido. La radioastronomía se basa en la observación por medio de los radiotelescopios, unos instrumentos con forma de antena que recogen y registran las ondas de radio o radiación electromagnética emitidas por los distintos objetos celestes. Estas ondas de radio, al ser procesadas ofrecen un espectro analizable del objeto que las emite. La radioastronomía ha permitido un importante incremento del conocimiento astronómico, particularmente con el descubrimiento de muchas clases de nuevos objetos, incluyendo los púlsares (o magnétares), cuásares, las denominadas galaxias activas, radiogalaxias y blázares. Esto es debido a que la radiación electromagnética permite «ver» cosas que no son posibles de detectar en la astronomía óptica. Tales objetos representan algunos de los procesos físicos más extremos y energéticos en el universo. Este método de observación está en constante desarrollo, ya que queda mucho por avanzar en esta tecnología. Astronomía infrarroja Astronomía ultravioleta La astronomía ultravioleta basa su actividad en la detección y estudio de la radiación ultravioleta que emiten los cuerpos celestes. Este campo de estudio cubre todos los campos de la astronomía. Las observaciones realizadas mediante este método son muy precisas y han realizado avances significativos en cuanto al descubrimiento de la composición de la materia interestelar e intergaláctica, el de la periferia de las estrellas, la evolución en las interacciones de los sistemas de estrellas dobles y las propiedades físicas de los cuásares y de otros sistemas estelares activos. En las observaciones realizadas con el satélite artificial Explorador Internacional Ultravioleta, los estudiosos descubrieron que la Vía Láctea está envuelta por un aura de gas con elevada temperatura. Este aparato midió asimismo el espectro ultravioleta de una supernova que nació en la Gran Nube de Magallanes en 1987. Este espectro fue usado por primera vez para observar a la estrella precursora de una supernova. Astronomía de rayos X Se cree que la emisión de rayos x procede de fuentes que contienen materia a elevadísimas temperaturas, en general en objetos cuyos átomos o electrones tienen una gran energía. El descubrimiento de la primera fuente de rayos x procedente del espacio en 1962 se convirtió en una sorpresa. Esa fuente denominada Scorpio X-1 está situada en la constelación de Escorpio en dirección al centro de la Vía Láctea. Por este descubrimiento Riccardo Giacconi obtuvo el Premio Nobel de Física en 2002. Astronomía de rayos gamma Los rayos gamma son radiaciones emitidas por objetos celestes que se encuentran en un proceso energético extremadamente violento. Algunos astros despiden brotes de rayos gamma o también llamados BRGs. Se trata de los fenómenos físicos más luminosos del universo produciendo una gran cantidad de energía en haces breves de rayos que pueden durar desde unos segundos hasta unas pocas horas. La explicación de estos fenómenos es aún objeto de controversia. Los fenómenos emisores de rayos gamma son frecuentemente explosiones de supernovas, su estudio también intenta clarificar el origen de la primera explosión del universo o big bang. El Observatorio de Rayos Gamma Compton —ya inexistente— fue el segundo de los llamados grandes observatorios espaciales (detrás del telescopio espacial Hubble) y fue el primer observatorio a gran escala de estos fenómenos. Ha sido reemplazado recientemente por el satélite Fermi. El observatorio orbital INTEGRAL observa el cielo en el rango de los rayos gamma blandos o rayos X duros. A energías por encima de unas decenas de GeV, los rayos gamma solo se pueden observar desde el suelo usando los llamados telescopios Cherenkov como MAGIC. A estas energías el universo también puede estudiarse usando partículas distintas a los fotones, tales como los rayos cósmicos o los neutrinos. Es el campo conocido como Física de Astropartículas. Astronomía teórica Los astrónomos teóricos utilizan una gran variedad de herramientas como modelos matemáticos analíticos y simulaciones numéricas por computadora. Cada uno tiene sus ventajas. Los modelos matemáticos analíticos de un proceso por lo general, son mejores porque llegan al corazón del problema y explican mejor lo que está sucediendo. Los modelos numéricos, pueden revelar la existencia de fenómenos y efectos que de otra manera no se verían. Los teóricos de la astronomía ponen su esfuerzo en crear modelos teóricos e imaginar las consecuencias observacionales de estos modelos. Esto ayuda a los observadores a buscar datos que puedan refutar un modelo o permitan elegir entre varios modelos alternativos o incluso contradictorios. Los teóricos, también intentan generar o modificar modelos para conseguir nuevos datos. En el caso de una inconsistencia, la tendencia general es tratar de hacer modificaciones mínimas al modelo para que se corresponda con los datos. En algunos casos, una gran cantidad de datos inconsistentes a través del tiempo puede llevar al abandono total de un modelo. Los temas estudiados por astrónomos teóricos incluyen: dinámica estelar y evolución estelar; formación y evolución de las galaxias; origen de los rayos cósmicos; relatividad general y cosmología física, incluyendo teoría de cuerdas. Mecánica celeste Astrofísica Estudio de los objetos celestes El sistema solar desde la astronomía El estudio del universo o cosmos y más concretamente del sistema solar ha planteado una serie de interrogantes y cuestiones, por ejemplo cómo y cuándo se formó el sistema, por qué y cuándo desaparecerá el Sol, por qué hay diferencias físicas entre los planetas, etc. Es difícil precisar el origen del sistema solar. Los científicos creen que puede situarse hace unos , cuando una inmensa nube de gas y polvo empezó a contraerse probablemente, debido a la explosión de una supernova cercana. Alcanzada una densidad mínima ya se autocontrajo a causa de la fuerza de la gravedad y comenzó a girar a gran velocidad, por conservación de su momento cinético, al igual que cuando una patinadora repliega los brazos sobre sí misma gira más rápido. La mayor parte de la materia se acumuló en el centro. La presión era tan elevada que los átomos comenzaron a fusionarse, liberando energía y formando una estrella. También había muchas colisiones. Millones de objetos se acercaban y se unían o chocaban con violencia y se partían en trozos. Algunos cuerpos pequeños (planetesimales) iban aumentando su masa mediante colisiones y al crecer, aumentaban su gravedad y recogían más materiales con el paso del tiempo (acreción). Los encuentros constructivos predominaron y, en solo , adquirió un aspecto semejante al actual. Después cada cuerpo continuó su propia evolución. Astronomía del Sol El Sol es la estrella que, por el efecto gravitacional de su masa, domina el sistema planetario que incluye a la Tierra. Es el elemento más importante en nuestro sistema y el objeto más grande, que contiene aproximadamente el 98% de la masa total del sistema solar. Mediante la radiación de su energía electromagnética, aporta directa o indirectamente toda la energía que mantiene la vida en la Tierra. Saliendo del Sol, y esparciéndose por todo el sistema solar en forma de espiral tenemos al conocido como viento solar que es un flujo de partículas, fundamentalmente protones y neutrones. La interacción de estas partículas con los polos magnéticos de los planetas y con la atmósfera genera las auroras polares boreales o australes. Todas estas partículas y radiaciones son absorbidas por la atmósfera. La ausencia de auroras durante el mínimo de Maunder se achaca a la falta de actividad del Sol. A causa de su proximidad a la Tierra y como es una estrella típica, el Sol es un recurso extraordinario para el estudio de los fenómenos estelares. No se ha estudiado ninguna otra estrella con tanto detalle. La estrella más cercana al Sol, Próxima Centauri, está a 4,2 años luz. El Sol (todo el sistema solar) gira alrededor del centro de la Vía Láctea, nuestra galaxia. Da una vuelta cada . Ahora se mueve hacia la constelación de Hércules a 19 km/s. Actualmente el Sol se estudia desde satélites, como el Observatorio Heliosférico y Solar (SOHO), dotados de instrumentos que permiten apreciar aspectos que, hasta ahora, no se habían podido estudiar. Además de la observación con telescopios convencionales, se utilizan: el coronógrafo, que analiza la corona solar, el telescopio ultravioleta extremo, capaz de detectar el campo magnético, y los radiotelescopios, que detectan diversos tipos de radiación que resultan imperceptibles para el ojo humano. El Sol es una de las 200 000 millones a 400 000 millones de estrellas de nuestra galaxia. Es una enana amarilla corriente, que está a 8,5 minutos-luz de la Tierra y es de media edad. Con 1,4 millones de kilómetros de diámetro, contiene el 99,8 por ciento de la masa de nuestro sistema solar, la cual se consume a un ritmo de 600 millones de toneladas de hidrógeno por segundo, produciendo 596 millones de toneladas de helio. Convirtiendo así 4 millones de toneladas en energía según la ecuación E=mc². Además, el Sol es similar a una bomba de hidrógeno por la colosal fusión nuclear de hidrógeno que mantiene en su núcleo y la gran cantidad de energía que emite cada segundo. El equilibrio que mantiene su tamaño es la contraposición entre su gravedad y la expulsión continua de energía. También es una estrella de tercera generación. El protio, el isótopo de hidrógeno más abundante de la naturaleza, con su núcleo solamente compuesto por un protón, es además el combustible que alimenta las fusiones nucleares en el corazón de las estrellas gracias a cuya ingente energía emitida las estrellas brillan incluyendo a nuestro sol. La parte visible del Sol está a 6000 °C y la corona, más alejada, a . Estudiando al Sol en el ultravioleta se llegó a la conclusión de que el calentamiento de la corona se debe a la gran actividad magnética del Sol. Los límites del sistema solar vienen dados por el fin de su influencia o heliosfera, delimitada por un área denominada Frente de choque de terminación o Heliopausa. Historia de la observación del Sol El estudio del Sol se inicia con Galileo Galilei de quien se dice que se quedó ciego por observar los eclipses. Hace más de cien años se descubre la espectroscopia que permite descomponer la luz en sus longitudes de onda, gracias a esto se puede conocer la composición química, densidad, temperatura, situación los gases de su superficie, etc. En los años 50 ya se conocía la física básica del Sol, es decir, su composición gaseosa, la temperatura elevada de la corona, la importancia de los campos magnéticos en la actividad solar y su ciclo magnético de 22 años. Las primeras mediciones de la radiación solar se hicieron desde globos hace un siglo y después fueron aviones y dirigibles para mejorar las mediciones con aparatos radioastronómicos. En 1914, C. Abbot envió un globo para medir la constante solar (cantidad de radiación proveniente del sol por centímetro cuadrado por segundo). En 1946 el cohete V-2 militar ascendió a 55 km con un espectrógrafo solar a bordo; este fotografió al Sol en longitudes de onda ultravioletas. En 1948 (diez años antes de la fundación de la NASA) ya se fotografió al Sol en rayosX. Algunos cohetes fotografiaron ráfagas solares en 1956 en un pico de actividad solar. En 1960 se lanza la primera sonda solar denominada Solrad. Esta sonda monitoreó al sol en rayos x y ultravioletas, en una longitud de onda muy interesante que muestra las emisiones de hidrógeno; este rango de longitud de onda se conoce como línea Lyman α. Posteriormente se lanzaron ocho observatorios solares denominados OSO. El OSO 1 fue lanzado en 1962. Los OSO apuntaron constantemente hacia el Sol durante 17 años y con ellos se experimentaron nuevas técnicas de transmisión fotográfica a la Tierra. El mayor observatorio solar ha sido el Skylab. Estuvo en órbita durante nueve meses en 1973 y principios de 1974. Observó al Sol en rayosg, X, ultravioleta y visible, y obtuvo la mayor cantidad de datos (y los mejor organizados) que hayamos logrado jamás para un objeto celeste. En 1974 y 1976 las sondas Helios A y B se acercaron mucho al Sol para medir las condiciones del viento solar. No llevaron cámaras. En 1980 se lanzó la sonda Solar Max, para estudiar al Sol en un pico de actividad. Tuvo una avería y los astronautas del Columbia realizaron una complicada reparación. Manchas solares George Ellery Hale descubrió en 1908 que las manchas solares (áreas más frías de la fotosfera) presentan campos magnéticos fuertes. Estas manchas solares se suelen dar en parejas, con las dos manchas con campos magnéticos que señalan sentidos opuestos. El ciclo de las manchas solares, en el que la cantidad de manchas solares varía de menos a más y vuelve a disminuir al cabo de unos 11 años, se conoce desde principios del . Sin embargo, el complejo modelo magnético asociado con el ciclo solar solo se comprobó tras el descubrimiento del campo magnético del Sol. El fin del Sol: ¿el fin de la vida humana? En el núcleo del Sol hay hidrógeno suficiente para durar otros , es decir, se calcula que está en plenitud, en la mitad de su vida. Tal como se desprende de la observación de otros astros parecidos, cuando se gaste este hidrógeno combustible, el Sol cambiará: según se vayan expandiendo las capas exteriores hasta el tamaño actual de la órbita de la Tierra, el Sol se convertirá en una gigante roja, algo más fría que hoy, pero 10 000 veces más brillante a causa de su enorme tamaño. Sin embargo, la Tierra no se consumirá porque se moverá en espiral hacia afuera, como consecuencia de la pérdida de masa del Sol. El Sol seguirá siendo una gigante roja, con reacciones nucleares de combustión de helio en el centro, durante solo . No tiene suficiente masa para atravesar sucesivos ciclos de combustión nuclear o un cataclismo en forma de explosión, como les ocurre a algunas estrellas. Después de la etapa de gigante roja, se encogerá hasta ser una enana blanca, aproximadamente del tamaño de la Tierra, y se enfriará poco a poco durante varios millones de años. Astronomía de los planetas, satélites y otros objetos del sistema solar Una de las cosas más fáciles de observar desde la Tierra y con un telescopio simple son los objetos de nuestro propio sistema solar y sus fenómenos, que están muy cerca en comparación de estrellas y galaxias. De ahí que el aficionado siempre tenga a estos objetos en sus preferencias de observación. Los eclipses y los tránsitos astronómicos han ayudado a medir las dimensiones del sistema solar. Dependiendo de la distancia de un planeta al Sol, tomando la Tierra como observatorio de base, los planetas se dividen en dos grandes grupos: planetas interiores y planetas exteriores. Entre estos planetas encontramos que cada uno presenta condiciones singulares: la curiosa geología de Mercurio, los movimientos retrógrados de algunos como Venus, la vida en la Tierra, la curiosa red de antiguos ríos de Marte, el gran tamaño y los vientos de la atmósfera de Júpiter, los anillos de Saturno, el eje de rotación inclinado de Urano o la extraña atmósfera de Neptuno, etc. Algunos de estos planetas cuentan con satélites que también tienen singularidades; de entre estos, el más estudiado ha sido la Luna, el único satélite de la Tierra, dada su cercanía y simplicidad de observación, conformándose una historia de la observación lunar. En la Luna hallamos claramente el llamado bombardeo intenso tardío, que fue común a casi todos los planetas y satélites, creando en algunos de ellos abruptas superficies salpicadas de impactos. Los llamados planetas terrestres presentan similitudes con la Tierra, aumentando su habitabilidad planetaria, es decir, su potencial posibilidad habitable para los seres vivos. Así se delimita la ecósfera, un área del sistema solar que es propicia para la vida. Más lejos de Neptuno encontramos otros planetoides como por ejemplo el hasta hace poco considerado planeta Plutón, la morfología y naturaleza de este planeta menor llevó a los astrónomos a cambiarlo de categoría en la llamada redefinición de planeta de 2006 aunque posea un satélite compañero, Caronte. Estos planetas enanos, por su tamaño no pueden ser considerados planetas como tales, pero presentan similitudes con estos, siendo más grandes que los asteroides. Algunos son: Eris, Sedna o 1998 WW31, este último singularmente binario y de los denominados cubewanos. A todo este compendio de planetoides se les denomina coloquialmente objetos o planetas transneptunianos. También existen hipótesis sobre un planeta X que vendría a explicar algunas incógnitas, como la ley de Titius-Bode o la concentración de objetos celestes en el acantilado de Kuiper. Entre los planetas Marte y Júpiter encontramos una concentración inusual de asteroides conformando una órbita alrededor del sol denominada cinturón de asteroides. En órbitas dispares y heteromorfas se encuentran los cometas, que subliman su materia al contacto con el viento solar, formando colas de apariencia luminosa; se estudiaron en sus efímeros pasos por las cercanías de la Tierra los cometas McNaught o el Halley. Mención especial tienen los cometas Shoemaker-Levy 9 que terminó estrellándose contra Júpiter o el 109P/Swift-Tuttle, cuyos restos provocan las lluvias de estrellas conocidas como Perseidas o lágrimas de San Lorenzo. Estos cuerpos celestes se concentran en lugares como el cinturón de Kuiper, el denominado disco disperso o la nube de Oort y se les llama en general cuerpos menores del sistema solar. En el sistema solar también existe una amplísima red de partículas, meteoroides de diverso tamaño y naturaleza, y polvo que en mayor o menor medida se hallan sometidos al influjo del efecto Poynting-Robertson que los hace derivar irremediablemente hacia el Sol. Astronomía de los fenómenos gravitatorios El campo gravitatorio del Sol es el responsable de que los planetas giren en torno a este. El influjo de los campos gravitatorios de las estrellas dentro de una galaxia se denomina marea galáctica. Tal como demostró Einstein en su obra Relatividad general, la gravedad deforma la geometría del espacio-tiempo, es decir, la masa gravitacional de los cuerpos celestes deforma el espacio, que se curva. Este efecto provoca distorsiones en las observaciones del cielo por efecto de los campos gravitatorios, haciendo que se observen juntas galaxias que están muy lejos unas de otras. Esto es debido a que existe materia que no podemos ver que altera la gravedad. A estas masas se las denominó materia oscura. Encontrar materia oscura no es fácil, ya que no brilla ni refleja la luz, así que los astrónomos se apoyan en la gravedad, que puede curvar la luz de estrellas distantes cuando hay suficiente masa presente, muy parecido a cómo una lente distorsiona una imagen tras ella, de ahí el término lente gravitacional o anillo de Einstein. Gracias a las leyes de la física, conocer cuánta luz se curva dice a los astrónomos cuánta masa hay. Cartografiando las huellas de la gravedad, se pueden crear imágenes de cómo está distribuida la materia oscura en un determinado lugar del espacio. A veces se presentan anomalías gravitatorias que impiden realizar estos estudios con exactitud, como las ondas gravitacionales provocadas por objetos masivos muy acelerados. Los agujeros negros son singularidades de alta concentración de masa que curva el espacio, cuando estas acumulaciones masivas son producidas por estrellas le les denomina agujero negro estelar; esta curva espacial es tan pronunciada que todo lo que se acerca a su perímetro es absorbido por este, incluso la luz (de ahí el nombre). El agujero negro Q0906+6930 es uno de los más masivos de los observados. Varios modelos teóricos, como por ejemplo el agujero negro de Schwarzschild, aportan soluciones a los planteamientos de Einstein. Astronomía cercana y lejana La astronomía cercana abarca la exploración de nuestra galaxia, por tanto comprende también la exploración del Sistema Solar. No obstante, el estudio de las estrellas determina si estas pertenecen o no a nuestra galaxia. El estudio de su clasificación estelar determinará, entre otras variables, si el objeto celeste estudiado es «cercano» o «lejano». Tal como hemos visto hasta ahora, en el Sistema Solar encontramos diversos objetos (v. El Sistema Solar desde la astronomía) y nuestro sistema solar forma parte de una galaxia que es la Vía Láctea. Nuestra galaxia se compone de miles de millones de objetos celestes que giran en espiral desde un centro muy denso donde se mezclan varios tipos de estrellas, otros sistemas solares, nubes interestelares o nebulosas, etc. y encontramos objetos como IK Pegasi, Tau Ceti o Gliese 581 que son soles cada uno con determinadas propiedades diferentes. La estrella más cercana a nuestro sistema solar es Próxima Centauri que se encuentra a 4,2 años luz. Esto significa que la luz procedente de dicha estrella tarda 4,2 años en llegar a ser percibida en La Tierra desde que es emitida. Estos soles o estrellas forman parte de numerosas constelaciones que son formadas por estrellas fijas aunque la diferencia de sus velocidades de deriva dentro de nuestra galaxia les haga variar sus posiciones levemente a lo largo del tiempo, por ejemplo la Estrella Polar. Estas estrellas fijas pueden ser o no de nuestra galaxia. La astronomía lejana comprende el estudio de los objetos visibles fuera de nuestra galaxia, donde encontramos otras galaxias que contienen, como la nuestra, miles de millones de estrellas a su vez. Las galaxias pueden no ser visibles dependiendo de si su centro de gravedad absorbe la materia (v. agujero negro), son demasiado pequeñas o simplemente son galaxias oscuras cuya materia no tiene luminosidad. Las galaxias a su vez derivan alejándose unas de otras cada vez más, lo que apoya la hipótesis de que nuestro universo actualmente se expande. Las galaxias más cercanas a la nuestra (aproximadamente 30) son denominadas el grupo local. Entre estas galaxias se encuentran algunas muy grandes como Andrómeda, nuestra Vía Láctea y la galaxia del Triángulo. Cada galaxia tiene propiedades diferentes, predomino de diferentes elementos químicos y formas (espirales, elípticas, irregulares, anulares, lenticulares, en forma de remolino, o incluso con forma espiral barrada entre otras más sofisticadas como cigarros, girasoles, sombreros, etc.). Cosmología La cosmología en rasgos generales estudia la historia del universo desde su nacimiento. Hay numerosos campos de estudio de esta rama de la astronomía. Varias investigaciones conforman la cosmología actual, con sus postulados, hipótesis e incógnitas. La cosmología física comprende el estudio del origen, la evolución y el destino del universo utilizando los modelos terrenos de la física. La cosmología física se desarrolló como ciencia durante la primera mitad del como consecuencia de diversos acontecimientos y descubrimientos encadenados durante dicho período. Principio cosmológico Constante cosmológica Formación y evolución de las estrellas Corrimiento al rojo Fuerzas fundamentales Aceleración de la expansión del universo Inestabilidad de Jeans Interacción nuclear fuerte Astronáutica Asistencia gravitatoria Expediciones espaciales Pioneer 10 y Anomalía de las Pioneer Hipótesis destacadas Aceleración de la expansión del universo Hipótesis Némesis Colonización de Mercurio Teoría del Big Bang y la Nucleosíntesis primordial Teoría del Estado Estacionario Expansión cósmica en escala Ambiplasma Inflación cósmica Forma del universo Destino último del universo Apéndices Apéndice I - Astrónomos relevantes en la Historia A lo largo de la historia de toda la humanidad ha habido diferentes puntos de vista con respecto a la forma, conformación, comportamiento y movimiento de la Tierra, hasta llegar al punto en el que vivimos hoy en día. Actualmente hay una serie de teorías que han sido comprobadas científicamente y por lo tanto fueron aceptadas por los científicos de todo el mundo. Pero para llegar hasta este punto, tuvo que pasar mucho tiempo, durante el cual coexistieron varias teorías diferentes, unas más aceptadas que otras. A continuación se mencionan algunas de las aportaciones más sobresalientes realizadas a la Astronomía. La tabla se puede ampliar con, entre otros: Apéndice II - Ramas de la astronomía Debido a la amplitud de su objeto de estudio la Astronomía se divide en cuatro grandes ramas, que no están completamente separadas entre sí: Astronomía de posición. Tiene por objeto situar en la esfera celeste la posición de los astros midiendo determinados ángulos respecto a unos planos fundamentales, utilizando para ello diferentes sistemas de coordenadas astronómicas. Es la rama más antigua de esta ciencia. Describe el movimiento de los astros, planetas, satélites y fenómenos como los eclipses y tránsitos de los planetas por el disco del Sol. También estudia el movimiento diurno y el movimiento anual del Sol y las estrellas. Incluye la descripción de cada uno de los planetas, asteroides y satélites del Sistema Solar. Son tareas fundamentales de la misma la determinación de la hora y la determinación para la navegación de las coordenadas geográficas. Mecánica celeste. Tiene por objeto interpretar los movimientos de la astronomía de posición, en el ámbito de la parte de la física conocida como mecánica, generalmente la newtoniana (Ley de la Gravitación Universal de Isaac Newton). Estudia el movimiento de los planetas alrededor del Sol, de sus satélites, el cálculo de las órbitas de cometas y asteroides. El estudio del movimiento de la Luna alrededor de la Tierra fue por su complejidad muy importante para el desarrollo de la ciencia. El movimiento extraño de Urano, causado por las perturbaciones de un planeta hasta entonces desconocido, permitió a Le Verrier y Adams descubrir sobre el papel al planeta Neptuno. El descubrimiento de una pequeña desviación en el avance del perihelio de Mercurio se atribuyó inicialmente a un planeta cercano al Sol hasta que Einstein la explicó con su Teoría de la Relatividad. Astrofísica. Es una parte moderna de la astronomía que estudia los astros como cuerpos de la física estudiando su composición, estructura y evolución. Solo fue posible su inicio en el cuando gracias a los espectros se pudo averiguar la composición física de las estrellas. Las ramas de la física implicadas en el estudio son la física nuclear (generación de la energía en el interior de las estrellas) y la física de la relatividad. A densidades elevadas el plasma se transforma en materia degenerada; esto lleva a algunas de sus partículas a adquirir altas velocidades que deberán estar limitadas por la velocidad de la luz, lo cual afectará a sus condiciones de degeneración. Asimismo, en las cercanías de los objetos muy masivos, estrellas de neutrones o agujeros negros, la materia que cae se acelera a velocidades relativistas emitiendo radiación intensa y formando potentes chorros de materia. Cosmología. Es la rama de la astronomía que estudia los orígenes, estructura, evolución y nacimiento del universo en su conjunto. Apéndice III - Campos de estudio de la astronomía Campos de estudio principales Astrometría. Estudio de la posición de los objetos en el cielo y su cambio de posición. Define el sistema de coordenadas utilizado y la cinemática de los objetos en nuestra galaxia. Astrofísica. Estudio de la física del universo, incluyendo las propiedades de objetos astronómicos (luminosidad, densidad, temperatura, composición química). Cosmología. Estudio del origen del universo y su evolución. El estudio de la cosmología es la máxima expresión de la astrofísica teórica. Formación y evolución de las galaxias. Estudio de la formación de galaxias y su evolución. Astronomía galáctica. Estudio de la estructura y componentes de nuestra galaxia y de otras. Astronomía extragaláctica. Estudio de objetos fuera de la Vía Láctea. Astronomía estelar. Estudio de las estrellas, su nacimiento, evolución y muerte. Evolución estelar. Estudio de la evolución de las estrellas desde su formación hasta su muerte como un despojo estelar. Formación estelar. Estudio de las condiciones y procesos que llevan a la formación de estrellas en el interior de nubes de gas. Ciencias planetarias. Estudio de los planetas del Sistema Solar y de los planetas extrasolares. Astrobiología. Estudio de la aparición y evolución de sistemas biológicos en el universo. Otros campos de estudio Arqueoastronomía Astroquímica Astrodinámica Astronáutica Campos de la astronomía por la parte del espectro utilizado Atendiendo a la longitud de onda de la radiación electromagnética con la que se observa el cuerpo celeste la astronomía se divide en: Astronomía óptica, cuando la observación utiliza exclusivamente la luz en las longitudes de onda que pueden ser detectadas por el ojo humano, o muy cerca de ellas (alrededor de 400-800 nm). Es la rama más antigua. Radioastronomía. Para la observación utiliza radiación con longitudes de onda de mm a cm, similar a la usada en radiodifusión. La astronomía óptica y de radio puede realizarse usando observatorios terrestres porque la atmósfera es transparente en esas longitudes de onda. Astronomía infrarroja. Utiliza detectores de luz infrarroja (longitudes de onda más largas que la correspondiente al rojo). La luz infrarroja es fácilmente absorbida por el vapor de agua, así que los observatorios de infrarrojos deben establecerse en lugares altos y secos. Astronomía de alta energía. Incluye la astronomía de rayos X, astronomía de rayos gamma y astronomía ultravioleta, así como el estudio de los neutrinos y los rayos cósmicos. Las observaciones se pueden hacer únicamente desde globos aerostáticos u observatorios espaciales. Apéndice IV - Organizaciones de exploración espacial más relevantes NASA ESA Sociedad Planetaria SpaceX Véase también Anexo:Cronología de la astronomía Referencias Bibliografía Por orden alfabético del título de las obras: Astronomía, José Luis Comellas. Editorial Rialp (1983). Claroscuro del universo, Mariano Moles Villamate. CSIC (2007). Cosmos, Carl Sagan. Editorial Planeta (1980). Curso de Astronomía general, Bakulin, Kononóvich y Moroz. Editorial MIR (1987). De Saturno a Plutón, Isaac Asimov. Alianza Editorial (1984). El cometa Halley, José Luis Comellas y Manuel Cruz. Aula Abierta Salvat, Salvat Editores (1985). El mundo de los planetas, Wulff Heintz. Ediciones Iberoamericanas (1968). El nuevo Sistema Solar, varios autores. Libros de "Investigación y Ciencia". Editorial Prensa Científica (1982). Guía de las Estrellas y los Planetas, Patrick Moore. Ediciones Folio (1982). Historia del Telescopio, Isaac Asimov. Alianza Editorial (1986). Introducción a la Astrofotografía, José García García. Equipo Sirius. La exploración de Marte, José Luis Sérsic. Editorial Labor (1976). Objetivo universo, Alejandro Feinstein, Horacio Tignanelli. Ediciones Colihue (1996). Planetas del Sistema Solar, Mijail Márov. Editorial MIR (1985). Sol, lunas y planetas. Erhard Keppler. (Ed. Salvat Editores, Biblioteca Científica Salvat, 1986). Un viaje al Cosmos en 52 semanas, Antxón Alberdi y Silbia López de Lacalle. CSIC (2007). . Enlaces externos Unión Astronómica Internacional (International Astronomical Union) .
155_0
Arte marcial
Las artes marciales, también llamadas artes militares o artes castrenses, son prácticas y tradiciones cuyo objetivo es someter o defenderse mediante una técnica concreta. Hay varios estilos y escuelas de artes marciales que habitualmente excluyen el empleo de armas de fuego u otro tipo de armamento moderno. A su vez, lo que diferencia a las artes marciales de la mera belicosidad o violencia física (pelea callejera) es la organización de sus técnicas y tácticas en un sistema coherente; la adhesión a una filosofía de vida o código de conducta y la codificación de métodos efectivos probados en la antigüedad. En la actualidad, las artes marciales se practican por diferentes razones: La salud, la protección personal, el desarrollo personal, la disciplina mental, la forja del carácter y la autoconfianza. El significado estricto es el de ‘artes militares’, por extensión se aplica a todo tipo de estilos de artes de lucha cuerpo a cuerpo y al uso de armas tradicionales tales como la esgrima antigua. Introducción En lo que respecta a las artes marciales de origen oriental, se establece un comienzo a partir de la visita de Gautama el Buda (500 a.C. aprox.) a China, donde él bendice a los desarrolladores con el conocimiento del Qí, principio activo de la cultura china tradicional que forma parte de todo ser vivo y que podría traducirse como "flujo vital de energía". Esto los invitó a reflexionar en una nueva manera de movimientos armónicos donde el Qí circulara correctamente a través del cuerpo y se manifestara al exterior con belleza, suavidad, facilidad y potencia. A partir del conocimiento de la energía inicia uno de los desarrollos más antiguos de las artes corporales como herramienta marcial. Sin embargo, hasta el no surge el concepto y término moderno de artes marciales, el cual deriva de los caracteres chinos wǔ shù 武術 y wǔ yì 武藝. Por su parte, el nombre marcial proviene de Marte, el dios de la guerra romano. Las artes marciales orientales, en algunos casos, se practicaban en círculos cerrados o eran distintivas de una élite relacionada con la milicia y la nobleza, como fue el caso de los guerreros samurái, y su contenido iba mucho más allá de lo que constituía el entrenamiento de las tropas. El diccionario chino-inglés Chinese-English Dictionary (1882), de Herbert Giles, traduce wǔ yì como ‘artes militares’. Por su parte, no se emplea el término wǔ shù hasta 1931, en el Chinese-English Dictionary de Mathews. El término también aparece en 1920, en el Japanese-English Dictionary, de Takenobu, en la traducción del japonés bu-gei (武芸) o bu-jutsu (武術), como "el oficio o desempeño de los asuntos militares". Otras pronunciaciones comunes del par de caracteres 武術 son: mou seut, en cantonés, y võ-thuật, en vietnamita. En China, durante el Periodo Republicano, de 1928 a 1949, los sistemas de lucha chinos se denominaron guoshu o kuoshu (國術, "habilidad nacional"). El origen del concepto de artes marciales está relacionado con la irrupción de la Edad Moderna en el este de Asia en el . Este fenómeno supuso la transformación de las estructuras sociales feudales; el inicio en el empleo de las armas de fuego, las cuales hacían perder vigencia a las formas tradicionales de lucha y la desaparición de los principios por los que se regía el mundo oriental. En China y en Corea, por el contrario, durante el y comienzos del se veía con desprecio a las artes marciales y a sus practicantes debido al auge del confucionismo como parte de las políticas del Estado. En consecuencia, el componente militar de la nación quedó debilitado. Cuando las artes militares tradicionales perdieron su lugar crucial en el dominio de la sociedad y la defensa del país, se transformaron en una opción para el desarrollo físico y moral de la nación, con objeto de mejorar física y espiritualmente a la población, lo que contribuyó a que se perdiera gran parte del conocimiento de las aplicaciones prácticas de las mismas. En la actualidad, las artes marciales tradicionales orientales aún incluyen la práctica de un código ético preciso que tiene sus raíces en las filosofías de Oriente, como el confucionismo chino, el sintoísmo japonés y el budismo zen (chan 禪). Además, algunas artes marciales, como el taichí chuan, se preservan hoy día como una práctica para mejorar la salud física y mental. En China, por su parte, se inventó el chuan fa o kung-fu, que dio lugar más tarde al wushu. En Japón, en cambio, aparecieron los do (o ‘caminos’) como el karate-do, el judo, el aikido, el kendo y el kobudo. A través de estas disciplinas, se desarrollaron más tarde en Corea el taekwondo, el tangsudo, el hapkido y el hankido. El éxito de las artes marciales tradicionales, que surgieron como una re-interpretación de las artes militares históricas, propició que se recuperasen en diversas culturas los sistemas de lucha con y sin armas clásicas. Así, en Japón se diferencian las antiguas escuelas clásicas conocidas como "koryu budo", en relación con las artes marciales tradicionales modernas, surgidas tras la restauración Meiji (1868) o "gendai budo", y en China, las artes marciales han derivado en el wushu moderno. Algunas artes marciales, y en particular las artes marciales originadas en China, Japón y Corea, van más allá de las aplicaciones físicas, e incluyen conocimientos de traumatología, regulación psicofísica ("chi kung" o "qigong"), terapéutica (acupuntura, digitopuntura, herboristería) y otras áreas relacionadas con la medicina china tradicional. Esto es una extensión natural del arte marcial, debido a que, a un nivel avanzado, las técnicas sacan provecho de un detallado conocimiento de la fisiología y del funcionamiento energético en el organismo del adversario, con objeto de incrementar la eficiencia de las mismas. Además, los practicantes de diversas artes marciales tradicionales han comenzado a redescubrir los diferentes métodos de construcción de armas antiguas, desde la forja de espadas hasta la ensambladura de catapultas y la elaboración de las torres de asedio, incluida la reproducción de armaduras y vestidos; y a investigar acerca de las costumbres y conocimientos tradicionales originarios de estas técnicas. Otras artes marciales tienen otros orígenes, como por ejemplo el capoeira, de origen afro-brasilero. También el boxeo es considerado un arte marcial por algunas corrientes. Clasificación Una de las clasificaciones generales de las artes marciales es la división entre sistemas sin armas y sistemas con armas. La mayoría de artes marciales están especializadas en un tipo de armas o un tipo de técnicas a mano desnuda (sin armas). Sin embargo, algunas se declaran sistemas completos con y sin armas. Ejemplos de estas son la mayoría de las artes marciales clásicas de China, como el kung-fu tipo shaolín o los estilos taoístas; algunas artes marciales japonesas como el ninjutsu, e incluso artes modernas como el hapkido. Los sistemas con armas incluyen como armas principales: El arco La lanza La espada Los bastones de diferentes longitudes, grosores y materiales Existen asimismo múltiples armas secundarias como cadenas, mazas, hachas y cuchillos. Las técnicas desarrolladas en los sistemas sin armas pueden consistir en golpes como puñetazos, golpes de mano abierta, patadas o técnicas de lucha, como los agarres, las luxaciones, las estrangulaciones, las proyecciones y las inmovilizaciones, y pueden atender a la existencia o no de armadura por parte del oponente. Métodos Un procedimiento común de entrenamiento consiste en la práctica de un grupo de técnicas encadenadas y codificadas en una serie. Se conoce como estructura o, más popularmente, como forma (kata, poomse, chuan tao, kuen, tao lu, hyung o tul). La práctica de formas es un método de aprendizaje y entrenamiento de técnicas con una aplicación específica. Otro sistema de entrenamiento es el de lucha simulada con un compañero o ejercicios por parejas (sparring, randori, kumite, tui shou, rou shou, chi sao, san shou), en el que se entrenan técnicas de lucha con un compañero con el objetivo de aprender, a diferencia del combate o la competición, donde el objetivo es la victoria. Historia Egipto, Grecia, África y Roma No existen documentos que ayuden a ubicar con exactitud cuándo se originaron las artes marciales, debido a que esto conlleva un largo proceso de desarrollo. Sin embargo, se puede decir que el método de combate más antiguo del que se tiene conocimiento en diferentes civilizaciones es la lucha. En las tumbas de Beni Hassan, en Egipto, se encuentran pinturas que datan del 2000 a. C. En estas, se muestran luchadores practicando toda una serie de movimientos, como lanzamientos y sumisiones. Los luchadores de Nubia, en África, eran tenidos en alta estima por su habilidad. En las tumbas egipcias de Amarna, que datan del en el 1350 a.C., aparecen pinturas que muestran luchadores egipcios practicando la pelea con bastones cortos, haciendo uso de protecciones en los antebrazos, además de la lucha. En murales del arte de Mesopotamia, aparecen imágenes de personas practicándola también. Los guerreros zulúes del sur del continente africano desarrollaron tácticas y técnicas para la pelea con armas como el garrote, la lanza y el escudo. El guerrero Shaka (siglos y ) revolucionó las técnicas de guerra en masa, con la adición del assagai (una lanza para apuñalar, con un mango más corto), así como la manera en que entrenó a su ejército y las tácticas utilizadas contra otras tribus africanas y posteriormente contra los ingleses. En Grecia, se practicaban tres tipos de sistemas de combate que no solo tomaban parte en los juegos de Olimpia, sino que también servían para mantener el estado físico de sus ciudadanos y prepararlos para la guerra: El boxeo, la lucha y el pankration, todos ellos métodos de combate. En diferentes expresiones artísticas griegas, se observan diferentes técnicas de pelea, inclusive el uso de técnicas «sucias», como ataques a los ojos y mordiscos. A su vez, debieron de desarrollar técnicas para el uso de armas. En Esparta, por su parte, se enfatizó la práctica marcial desde una edad temprana. Como ejemplo de su aplicación, está el uso de la falange, una formación de combate, que le sirvió al ejército griego para la expansión de su imperio. Algunas personas han sugerido que durante la ocupación de la India (326-321 a. C.) por parte del emperador Alejandro Magno (356-323 a. C.), las técnicas de lucha griega fueron absorbidas en las técnicas indias y estas, a su vez, fueron introducidas en China por el monje Bodhidharma. Sin embargo, estas hipótesis no tienen hasta la fecha ningún soporte histórico serio. En la Roma antigua existía la lucha, practicada incluso con armas, en espectáculos como los combates de gladiadores en el Coliseo romano, entre otros. El ejército romano hacía énfasis en la pelea en grupos; mientras que los gladiadores eran entrenados en la pelea individual. Estos guerreros eran esclavos que debían ser eficientes en el uso de un gran número de armas, así como en combate a mano desnuda. Dos tipos de gladiadores famosos son el tracio y el retiarius. Al primero se le armaba con una sica (espada tracia), con un yelmo y con un escudo pequeño rectangular (parma), del que se publicaron manuales de entrenamiento. Al retiarius se le armó con un tridente o arpón, una red y una daga. A su vez, los gladiadores fueron expertos en boxeo (usaban el caestus) y en la lucha, como se ve en frescos del período. China, Corea y Japón Artes marciales en China Referencias sobre las artes marciales de China ubican su origen en el 2100 a. C., aunque no se tiene certeza sobre su antigüedad real. La razón de la supervivencia de las artes marciales ha sido el desarrollo de métodos de defensa y ataque en enfrentamientos de tipo físico, preponderando el uso del cuerpo, puños, manos, codos, rodillas, etcétera, con su máxima expresión en los conflictos bélicos. La asociación con métodos y filosofías religiosas en países como China se dieron a finales de la dinastía Ming, debido a la aparición de las armas de fuego, lo que causó que las técnicas del uso de armas blancas, así como la pelea con armas, comenzaran a perder su importancia en el teatro de la guerra. Durante el fin de la dinastía Ming y durante la dinastía Qing, las artes marciales chinas comenzaron a verse como métodos para mejorar la salud y empezaron a combinarse con las prácticas calisténicas taoístas (daoyin), además de verse como formas de alcanzar la iluminación. Ya aparecen referencias al shoubo ("técnicas de pelea"), al wuji ("técnicas de guerra") y al ji ji ("habilidad de pelea") antes de la construcción del monasterio shaolín y de la supuesta visita de Bodhidharma a China. La primera mención de la participación de monjes budistas en la guerra proviene de los trece monjes que ayudaron a capturar al sobrino de Wang Shichong. Tras lo que Li Shimin, primer emperador de la dinastía Tang, 618 a 907 d.C., recompensó al monasterio. No obstante, no existe ninguna referencia que mencione un estilo particular practicado por estos monjes. Monjes budistas La participación de monjes budistas en actividades de guerra hace pensar que estos no eran monjes en el sentido estricto de la palabra. Las enseñanzas budistas consideran el matar a otro ser humano como la ofensa más seria y con el peor karma. La novela Shuǐhǔ Zhuàn (Bandidos del pantano o A la orilla del agua) menciona a un personaje llamado Lu Zhishen ("Lu, el Sagaz"), un oficial del ejército que, por haber asesinado a un hombre, se vio obligado a ocultarse en el monasterio de la montaña Wutai. Sin embargo, este «monje» que bebía vino, comía carne y al que le gustaba pelear fue enviado a otro monasterio, a causa de su mal comportamiento. Este tipo de «monjes» aparecen en otras obras literarias como en el caso de Ji Gong. A su vez, en el , se mencionan muchos «monjes» que vivían en los alrededores del monasterio shaolín, violando las reglas y doctrinas budistas. Esto podría explicar la razón por la que algunos «monjes» no tenían ningún reparo en tomar una vida o comportarse de una manera opuesta a la de un monje budista. Durante las campañas en contra de los piratas japoneses o "wako" en la dinastía Ming, se hace la primera mención de un sistema de combate originado en el monasterio shaolín. Las técnicas de bastón fueron consideradas por el general Qi Jiguang, mientras que fueron criticadas por el general Yu Dayou (compañero de armas del general Qi), quien reclutó a un pequeño grupo de monjes y les enseñó sus propias técnicas de combate con el bastón, para que a su vez estos se las enseñaran a sus compañeros. Dinastía Ming Durante la dinastía Ming, el general Qi, en su libro Ji xiao xin shu (Libro de disciplina efectiva), menciona que las técnicas de combate a mano desnuda son una preparación para las técnicas de combate con armas. En este libro, Qi dedica secciones a la lucha con bastón y espada a dos manos que fueron copiadas de las armas usadas por los piratas japoneses, quienes las emplearon con mortal efectividad. Otras secciones incluyen la lucha con lanza, tridente, sable y escudo, armas de fuego, entre otras. Qi creó la primera rutina por escrito de técnicas de mano desnuda. Esta combinó técnicas de una docena de otros sistemas conocidos en su tiempo. También ideó la formación de combate pato mandarín, que incluía a un líder, a dos soldados armados con sables y escudos, a dos con lanzas de bambú con muchas puntas (langxian), a cuatro con lanzas largas, a dos con tridentes o sables de dos manos, y a un cocinero. Si el líder de la unidad moría, los soldados de toda la unidad eran ejecutados. Dinastía Qing; período Republicano (1912-1947); Revolución China (Mao Zedong) Durante la dinastía Qing, se difundieron historias que consideraban a Bodhidharma, al templo shaolín, a Zhang Zanfeng y al general Yue Fei, entre otros, los fundadores de muchos estilos marciales. En este período, se usaban prácticas esotéricas y encantamientos, con la creencia de que estos les darían a los miembros de las sectas pseudo-religiosas/marciales el poder de resistir las armas de fuego. La revolución de los boxeadores aumentó aún más este tipo de ideologías como inspiración ante la intervención extranjera en China. Durante el período Republicano, se intentó eliminar este tipo de mitos y se comenzó a usar un método más elaborado y técnico. Historiadores como Tang Hao escriben acerca del origen de las artes de combate chino y refutan las creencias que hasta el momento se tenían sobre estos sistemas. La práctica marcial de este período también se caracterizó por el rechazo de aquellos elementos de exhibición y su enfoque en la aplicación práctica en combate. Se inauguró la Academia Central de Artes Marciales de Nankín, Zhongyang Guoshuguan (en 1928), cuyo objetivo era el de fortalecer a la nación mediante la práctica de las artes marciales. En este período, a los sistemas de combate chino se les llamaron guoshu ("habilidad nacional"). La Revolución China, impulsada por Mao Zedong en 1949, cambió todo esto y enfocó la práctica marcial a la exhibición, con lo que se crea el wushu moderno. Artes marciales en Japón La historia de la evolución de las artes marciales del Japón es escasa; los registros más antiguos provienen de fuentes chinas. En la Historia del reinado de Wei (Weizhi), del año 297 d.C., se menciona a cientos de poblaciones que viven en paz en las islas japonesas. En la Historia de Han (Hou Hanshu), en cambio, se lee acerca de un período de gran inestabilidad y guerra. El sumo La referencia más antigua acerca de la práctica del sumo podría encontrarse en el 23 a. C., pero la primera mención como arte marcial se registró más recientemente en el 720 d.C., en el Nihon soki. Sin embargo, utiliza la palabra china jueli. En el 682 d.C., se utiliza la palabra xiangpu, en chino ("sumo"). Dinastía Tang en Japón; Durante la dinastía Tang, Japón tuvo el mayor contacto cultural con China. Durante la primera mitad del , los piratas japoneses atacaron las costas del este de China, sus técnicas de sable a dos manos y la habilidad del tiro con arco demostraron su alto desarrollo técnico, mientras que los usos del sable sembraron el terror entre las filas chinas. Los métodos diseñados por Qi Jiguang se introdujeron en Japón, y aparecieron publicados en el Heiho hidensho (okugisho), un libro de estrategia escrito por Yamamoto Kanasuke, en el . Conquista de China (Manchú); siglos y Durante la conquista de China por parte de los manchú, muchos emigrantes viajaron a Japón; entre ellos, Chen Yuanyun (1587 a 1671) o Chen Gempin, en japonés. En los pergaminos de la escuela Kito-ryu (1779), localizada en los precintos de la capilla Atago, en Tokio, se lee: «La instrucción en kempo comenzó con el emigrante Chen Yuanyun.» : karate En el , se modificaron los sistemas de jiu jitsu, lo que dio lugar al judo, de Jigorō Kanō (1860 a 1938); al aikidō, de Morihei Ueshiba (1883 a 1969), y a las técnicas de la isla de Okinawa o tuidi / to-de y tegumi. Estos fueron organizados, y promovieron la creación del karate, método divulgado por Gichin Funakoshi (1868 a 1957). Combate con bayoneta; década de 1930 Los métodos de combate con bayoneta japoneses o "juken jutsu" fueron estudiados por los miembros de la Academia de Guoshu, en Nankín, y se incluyeron como parte del entrenamiento tanto militar como civil en los años 30. En Japón, la clase guerrera japonesa o samurái unía la práctica del budismo zen con la de las artes de guerra, en el llamado camino del guerrero o Bushido, una tendencia que ha continuado hasta nuestros días. Restauración del período Meiji Durante la restauración del período Meiji, se originó el código del guerrero japonés Budo. Así, el budismo zen y las artes marciales japonesas sirvieron de apoyo e inspiración en el nacimiento del movimiento nacionalista que conllevó al inicio del expansionismo agresivo japonés y a la Segunda Guerra Mundial. [[Archivo:Korean staff.jpg|thumb|right|Escena del Manual ilustrado de las artes marciales del , impreso en Corea, el Muye Dobo Tongji.]] Artes marciales en Corea En la península coreana, la evidencia más antigua de la práctica marcial aparece en tumbas cercanas a la frontera noreste de China durante el reino de Koguryo (37 a. C. a 668 d.C.). Corea fue colonizada y quedó bajo el control militar chino entre el 108 a. C. y el 313 d.C. En algunos frescos se aprecian escenas de lucha (jueli, en chino; kajko, en coreano). El rey Sunjo (1567 a 1608) ordenó a sus oficiales el estudio del libro escrito por el general chino Qi Jiguang, y la preparación de un libro similar, copiando los métodos de los soldados de la dinastía Ming. El rey Jungjo (1776 a 1800) ordenó expandir el manual usado por el ejército para incluir las técnicas de combate propias de los japoneses. Este libro se titula Muye Dobo Tongji (Manual ilustrado de artes marciales). En la introducción de este libro, el rey Jungjo escribió que el único sistema de combate oficial desde el reinado del rey Kwanhaekun (1608 a 1623) era la práctica del tiro con arco. Los sistemas de combate coreano como el tang soo do (mano de la dinastía Tang), hwa rang do, taekkyon, neikung, kumdo, kuk sool won, entre otros, afirman ser totalmente coreanos y con cientos de años de antigüedad. Sin embargo, el Muye Dobo Tongji los contradice, considerando el nacimiento de las artes marciales coreanas actuales bajo influencia china o japonesa en su gran mayoría. Otros países Un ejemplo de otros sistemas de combate que también ayudaron en la formación de imperios es el método de lucha bökh de Mongolia. Los ejércitos mongoles utilizaron la práctica de la lucha, los juegos a caballo y las competencias del tiro con arco para mantener a sus tropas en perfecta forma física. En la actualidad aún se practican estas habilidades durante la celebración del festival de verano conocido como naadam. En 1295, se publicó en Alemania el manual más antiguo del que se tiene conocimiento el cual contiene técnicas para el combate con espada y escudo, entre muchas obras de este tipo publicadas en el continente europeo. En la Edad Media en Europa se publicaron manuales de combate como el Flos duellatorum (la flor de la batalla) en 1410, en la cual se describen técnicas con y sin armas. En las sagas vikingas se discuten, por su parte, tácticas de combate además de estrategia. En Tailandia y en Camboya, se originaron lo que hoy en día se conoce como muay thai o boxeo tailandés, y el bokator. Sin embargo, no existen fuentes fiables que narren los orígenes de este método de pelea. Otra forma de lucha que comparte el origen tailandés es el krabi krabong el cual se enfoca en el uso de armas como el bastón, el escudo o los sables dobles, entre otros. En la India existen dos tradiciones marciales consideradas como las más importantes. La tamil (dravidiana) y la sánscrita del Dhanur-veda (‘verdad sobre el arco’). En la primera, se tienen poemas escritos entre el 400 a.C. y el 600 d. C. donde se mencionan conflictos bélicos en el sur del país. Los guerreros se entrenaban en el uso de la lanza (vel), la espada (val) y el escudo (kedaham). Por otro lado, en la tradición sánscrita, el uso del arco y la flecha se consideraba como la más importante, como se lee en los escritos indios del Majabhárata y el Ramaiana. En los capítulos del Dhanur-veda, en cambio, se exponen temas tales como la organización de divisiones militares con carruajes de guerra, elefantes y caballos, infantería y lucha. También se describen cinco tipos de armas. A su vez, algunas tradiciones que han sobrevivido hasta la fecha son el varma ati (ataque a puntos vitales) y el silamban (pelea con bastón) de la tradición tamil nadú; el kalaripayatu, de la provincia de Kerala, que en la actualidad no incluye el combate libre, sino que se realizan combates preestabecidos y el mushti (lucha), dandi (pelea con bastón) del norte de India. Otras sistemas de pelea del continente indio son aquellos practicados por los sijes, a los cuales se les llama gatka. En Rusia, la necesidad de enfrentar diversos enemigos bajo condiciones adversas de clima y terreno llevó al desarrollo de técnicas de lucha versátiles e instintivas por parte de los cosacos. Así se empezó, durante la primera mitad del , una acumulación de conocimientos marciales que dio origen al método sambo. Asimismo, existen otros sistemas de combate de reciente divulgación como el arnis / eskrima / kali (en Filipinas) y el silat (en Indonesia), que aún no han sido divulgadas, estructuradas en profundidad o promocionadas como deportes de combate en occidente debido a su gran variedad de estilos, y a que su principal enfoque sigue siendo la defensa personal y el uso en el combate armado. El enfoque de las artes marciales en el A finales del surgieron diferentes sistemas híbridos, es decir, derivados de las artes marciales tradicionales, que abarcan el combate militar o los deportes de combate. Algunos de reciente creación y desarrollo son: El krav magá israelí, el jiu-jitsu brasileño, el lima lama samoano, el kickboxing japonés, el hapkido coreano, el jeet kune do (creado por Bruce Lee) y las artes marciales mixtas o AMM (en inglés: MMA). En el caso del systema ruso este fue recuperado ya que durante la época soviética fue prohibido a la población siendo enseñado solo a los Spetsnaz. Véase también Artes marciales por continente Artes marciales de África Artes marciales de América Artes marciales de Asia y Oceanía Artes marciales de Europa y Oriente Medio Anexo: Artes marciales Organismos Internacionales Federación Internacional de Evaluación Marcial Referencias y notas Bibliografía Obras clásicas de estrategia y filosofía de las artes marciales Lao Tse: Dào dé jing. Miyamoto, Musashi: El libro de los cinco anillos. Tzu, Sun: El arte de la guerra Tsunetomo, Yamamoto: Hagakure el código del samurái. Carl von Clausewitz: De la guerra. Libros, historia y ensayos Hyams, Joe, El zen en las artes marciales. México: Universo México, 1990, 147 págs. Jullien, François: Tratado de la eficacia. Lee, Bruce: El tao del jeet kune do. Ratti, Oscar; y Westbrook, Adele: Los secretos del samurái. Las artes marciales en el Japón feudal. Suzuki, Daisetz T.: El zen y la cultura japonesa. Enlaces externos Artes Marciales Japonesas. Portal de Wing Tsun Kung Fu. Site de Wing Chun en Madrid España. Portal de Artes Marciales. Portal de Kung Fu Tradicional.
158_0
Alquimia
En la historia de la ciencia, la alquimia (del árabe الخيمياء [al-khīmiyā]) es una antigua práctica protocientífica y una disciplina filosófica que combina elementos de la química, la metalurgia, la física, la medicina, la astrología, la semiótica, el misticismo, el espiritualismo y el arte. La alquimia se practicó en Mesopotamia, el Antiguo Egipto, Persia, la India y China, en la Antigua Grecia y el Imperio romano, en el Imperio islámico y después en Europa hasta el siglo , en una compleja red de escuelas y sistemas filosóficos que abarca al menos 2500 años. Tenía como objetivos la comprensión de la constitución y el funcionamiento del cosmos, y, visto desde un marco filosófico, la aplicación de principios naturales primordiales que condujeran a la materia imperfecta hacia la perfección. La alquimia occidental ha estado siempre estrechamente relacionada con el hermetismo, un sistema filosófico y espiritual que tiene sus raíces en Hermes Trismegisto, una deidad sincrética grecoegipcia y legendario alquimista. Estas dos disciplinas influyeron en el nacimiento del rosacrucismo, un importante movimiento esotérico del siglo . En el transcurso de los comienzos de la época moderna, la alquimia dominante evolucionó en la actual química. Actualmente es de interés para los historiadores de la ciencia y la filosofía, así como por sus aspectos místicos, esotéricos y artísticos. La alquimia fue una de las principales precursoras de las ciencias modernas, y muchas de las sustancias, herramientas y procesos de la antigua alquimia han servido como pilares fundamentales de las modernas industrias químicas y metalúrgicas. Aunque la alquimia adopta muchas formas, en la cultura popular es citada con mayor frecuencia en historias, películas, espectáculos y juegos como el proceso usado para transformar plomo (u otros elementos) en oro. Otra forma que adopta la alquimia es la de la búsqueda de la piedra filosofal, con la que pretendía conseguir tanto la vida eterna como la transmutación de cualquier metal en oro. En el plano espiritual de la alquimia, los alquimistas debían transmutar su propia alma antes de transmutar los metales. Esto quiere decir que debían purificarse, prepararse mediante la oración y el ayuno. Visión general La alquimia como investigación de la naturaleza La percepción popular y de los últimos siglos sobre los alquimistas, es que eran charlatanes que intentaban convertir plomo en oro, y que empleaban la mayor parte de su tiempo elaborando remedios milagrosos, venenos y pociones mágicas. Fundaban su ciencia en que el universo estaba compuesto de cuatro elementos clásicos a los que llamaban por el nombre vulgar de las sustancias que los representan, a saber: tierra, aire, fuego y agua, y con ellos pretendían preparar un quinto elemento que contendría la potencia de los cuatro en su máxima exaltación y equilibrio. La mayoría eran investigadores cultos, inteligentes y bien intencionados, e incluso distinguidos científicos, como Isaac Newton y Robert Boyle. Estos innovadores intentaron explorar e investigar la naturaleza misma. La base es un conocimiento del régimen del fuego y de las sustancias elementales del que tras profundas meditaciones se pasa a la práctica, comenzando por construir un atanor u horno alquímico. A menudo las carencias debían suplirse con la experimentación, las tradiciones y muchas especulaciones para profundizar en su arte. Para los alquimistas toda sustancia se componía de tres partes: mercurio, azufre y sal, siendo estos los nombres vulgares que comúnmente se usaban para designar al espíritu, alma y cuerpo, estas tres partes eran llamadas principios. Por manipulación de las sustancias y a través de diferentes operaciones, separaban cada una de las tres partes que luego debían ser purificadas individualmente, cada una de acuerdo al régimen de fuego que le es propicia, la sal con fuego de fusión y el mercurio y el azufre con destilaciones recurrentes y suaves. Tras ser purificadas las tres partes en una labor que solía conllevar mucho tiempo, y durante el cual debían vigilarse los aspectos planetarios, las tres partes debían unirse para formar otra vez la sustancia inicial. Una vez hecho todo esto la sustancia adquiría ciertos poderes. A lo largo de la historia de esta disciplina, los aprendices de alquimista, se esforzaron en entender la naturaleza de estos principios y encontraron algún orden y sentido en los resultados de sus experimentos alquímicos, si bien a menudo eran socavados por reactivos impuros o mal caracterizados, falta de medidas cuantitativas y nomenclatura hermética. Esto motivaba que, tras años de intensos esfuerzos, muchos acabaran arruinados y maldiciendo la alquimia. Los aprendices por lo general debían empezar por trabajar en el reino vegetal hasta dominar el régimen del fuego, las diversas operaciones y el régimen del tiempo. Para diferenciar las sustancias vulgares de aquellas fabricadas por su arte, los alquimistas, las designaban por el mismo nombre de acuerdo a alguna de sus propiedades, si bien procedían a añadirle el apelativo de «filosófico» o «nuestro». Así, se hablaba de «nuestra agua» para diferenciarla del agua corriente. No obstante, a lo largo de los textos alquímicos se asume que el aprendiz ya sabe diferenciar una de otra y, en ocasiones, explícitamente no se usa, ya que de acuerdo al arte hermético «no se debe dar perlas a los cerdos», razón por la que muchos fracasaban al seguir al pie de la letra las diferentes recetas. La «iluminación» solo se alcanzaba tras arduos años de riguroso estudio y experimentación. Una vez que el aprendiz lograba controlar el fuego, el tiempo de los procesos y los procesos mismos en el reino vegetal, estaba listo para acceder a los arcanos mayores, esto es, los mismos trabajos en el reino animal y mineral. Sostenían que la potencia de los remedios era proporcional a cada naturaleza. Los trabajos de los alquimistas se basaban en las naturalezas, por lo que a cada reino le correspondía una meta: al reino mineral la transmutación de metales vulgares en oro o plata, al reino animal la creación de una «panacea», un remedio que supuestamente curaría todas las enfermedades y prolongaría la vida indefinidamente. Todas ellas eran el resultado de las mismas operaciones. Lo que cambiaba era la materia prima, la duración de los procesos y la vigilancia y fuerza del fuego. Una meta intermedia era crear lo que se conocía como menstruo y lo que ofrecía era una multiplicación de sí mismo por inmersión de otras substancias semejantes en fusión/disolución (según su naturaleza) con estas. De modo que se conseguía tanto la generación como la regeneración de las substancias elementales. Estos no son los únicos usos de esta ciencia, aunque sí son los más conocidos y mejor documentados. Desde la Edad Media, los alquimistas europeos invirtieron mucho esfuerzo y dinero en la búsqueda de la piedra filosofal. La alquimia como disciplina espiritual y filosófica Los alquimistas sostenían que la piedra filosofal amplificaba místicamente el conocimiento de alquimia de quien la usaba tanto como fuera posible. Muchos aprendices y falsos alquimistas, tenidos por auténticos alquimistas, gozaron de prestigio y apoyo durante siglos, aunque no por su búsqueda de estas metas ni por la especulación mística y filosófica que se desprendía de su literatura, sino por sus contribuciones mundanas a las industrias artesanales de la época: la obtención de pólvora, el análisis y refinamiento de minerales, la metalurgia, la producción de tinta, tintes, pinturas y cosméticos, el curtido del cuero, la fabricación de cerámica y cristal, la preparación de extractos y licores, etc. La preparación del aqua vitae, el «agua de vida», era un experimento bastante popular entre los alquimistas europeos. Los alquimistas nunca tuvieron voluntad para separar los aspectos físicos de las interpretaciones metafísicas de su arte. La falta de vocabulario común para procesos y conceptos químicos, así como también la necesidad de secretismo, llevaba a los alquimistas a tomar prestados términos y símbolos de la mitología bíblica y pagana, la astrología, la cábala y otros campos místicos y esotéricos, de forma que incluso la receta química más simple terminaba pareciendo un obtuso conjuro mágico. Más aún, los alquimistas buscaron en esos campos los marcos de referencia teóricos dentro de los cuales podrían encajar su creciente colección de hechos experimentales inconexos. A partir de la Edad Media, algunos alquimistas empezaron a ver cada vez más estos aspectos metafísicos como los auténticos cimientos de la alquimia y a las sustancias químicas, estados físicos y procesos materiales como meras metáforas de entidades, estados y transformaciones espirituales. De esta forma, tanto la transmutación de metales corrientes en oro como la panacea universal simbolizaban la evolución desde un estado imperfecto, enfermo, corruptible y efímero hacia un estado perfecto, sano, incorruptible y eterno; y la piedra filosofal representaba entonces alguna clave mística que haría esta evolución posible. Aplicadas al propio alquimista, esta meta gemela simbolizaba su evolución desde la ignorancia hasta la iluminación y la piedra representaba alguna verdad o poder espiritual oculto que llevaría hasta esa meta. En los textos escritos según este punto de vista, los crípticos símbolos alquímicos, diagramas e imaginería textual de las obras alquímicas tardías, contienen típicamente múltiples capas de significados, alegorías y referencias a otras obras igualmente crípticas; y deben ser laboriosamente «descodificadas» para poder descubrir su auténtico significado. Alquimia y astrología La alquimia en Occidente y otros lugares donde fue ampliamente practicada estaba (y en muchos casos aún está) íntimamente relacionada y entrelazada con la astrología tradicional al estilo griego-babilónico. En muchos sentidos fueron desarrolladas para complementarse una a la otra en la búsqueda del conocimiento oculto. Tradicionalmente, cada uno de los siete cuerpos celestes del sistema solar que conocían los antiguos estaba asociado, ejercía el dominio sobre, y gobernaba un determinado metal. En el hermetismo está relacionada tanto con la astrología como con la teúrgia. La alquimia en la época científica De la alquimia occidental surge la ciencia moderna. Los alquimistas utilizaron muchas de las herramientas que se usan hoy. Estas herramientas eran a menudo fabricadas por ellos mismos y podían estar en buen estado, especialmente durante la Alta Edad Media. Muchos intentos de transmutación fallaban cuando los aprendices de alquimia elaboraban sin conocer compuestos inestables, lo que se veía empeorado por las precarias condiciones de seguridad. Hasta el , la alquimia fue en realidad considerada una ciencia seria en Europa: por ejemplo, Isaac Newton dedicó mucho más tiempo y escritos al estudio de la alquimia que a la óptica o la física, por lo que es célebre. Otros eminentes alquimistas del mundo occidental son Roger Bacon, Santo Tomás de Aquino, Tycho Brahe, Thomas Browne, Ramon Llull y Parmigianino. El nacimiento de la química moderna surgió con los aprendices de alquimia desencantados de su nulo progreso alquímico y con los críticos resentidos de la alquimia; tanto unos como otros lograron progresos en varios campos de la naturaleza en el , con el que proporcionaron un marco más preciso y fiable para las elaboraciones industriales y la medicina, libres del hermetismo propio de la alquimia (pues la alquimia nunca se prodigó como ciencia de multitudes), y entrando en un nuevo diseño general de conocimiento basado en el racionalismo. A partir de entonces, todo personaje que entroncaba con la alquimia o que «oscurecía» sus textos fue despreciado por la naciente corriente científica moderna. Tal es el caso, por ejemplo, del barón Carl Reichenbach, un conocido químico de la primera mitad del , que trabajó sobre conceptos parecidos a la antigua alquimia, tales como la fuerza ódica, pero su trabajo no entró en la corriente dominante de la discusión científica. La transmutación de la materia disfrutó de un momento dulce en el , cuando los físicos lograron transformar átomos de plomo en átomos de oro mediante reacciones nucleares. Sin embargo, los nuevos átomos de oro, al ser isótopos muy inestables, resistían menos de cinco segundos antes de desintegrarse. Más recientemente, informes de transmutación de elementos pesados —mediante electrólisis o cavitación sónica— fueron el origen de la controversia sobre fusión fría en 1989. Ninguno de estos hallazgos ha podido ser aún reproducido con fiabilidad. El simbolismo alquímico ha sido usado ocasionalmente en el siglo por psicólogos y filósofos. Carl Jung revisó el simbolismo y teoría alquímicos y empezó a concebir el significado profundo del trabajo alquimista como una senda espiritual. La filosofía, los símbolos y los métodos alquímicos han gozado de un cierto renacimiento en contextos postmodernos tales como el movimiento Nueva era. La alquimia como objeto de investigación histórica La historia de la alquimia se ha convertido en un vigoroso campo académico. A medida que el oscuro lenguaje hermético de los alquimistas va siendo gradualmente «descifrado», los historiadores van haciéndose más conscientes de las conexiones intelectuales entre esa disciplina y otras facetas de la historia cultural occidental, tales como la sociología y la psicología de comunidades intelectuales, el cabalismo, el espiritualismo, el rosacrucismo y otros movimientos místicos, la criptografía, la brujería, y la evolución de la ciencia y la filosofía. Etimología La palabra alquimia procede del árabe al-khīmiyaˀ (الخيمياء), que podría estar formada por el artículo al- y la palabra griega khumeia (χυμεία), que significa «echar juntos», «verter juntos», «soldar», «alear», etc. (de khumatos, «lo que se vierte», «lingote», o del persa kimia, «oro»). Un decreto de Diocleciano, escrito en griego sobre el año 300, ordenaba quemar «los antiguos escritos de los egipcios, que trataban sobre el arte de fabricar oro y plata» la khēmia transmutación. La palabra árabe kīmiyaˀ, sin el artículo, ha dado lugar a «química» en castellano y otras lenguas, y al-kīmiyaˀ significa, en árabe moderno, «la química». Se ha sugerido que la palabra árabe al-kīmiyaˀ significaba en realidad, originariamente, «la ciencia egipcia», tomando prestada del copto la palabra kēme, «Egipto», así alquimia era el «arte de Keme» (o su equivalente en el dialecto medieval bohaírico del copto, khēme). La palabra copta deriva del demótico kmỉ, y este a su vez del egipcio antiguo kmt. Esta última palabra designaba tanto al país como al color ‘negro’ (Egipto era la ‘tierra negra’, en contraste con la «tierra roja», el desierto circundante), por lo que esta etimología podría también explicar el apodo de «magia negra egipcia». Sin embargo, esta teoría puede ser solo un ejemplo de etimología popular. En la Edad Media se solía usar la expresión ars chimica para aludir a la alquimia. A veces, se considera a la palabra crisopeya sinónimo de alquimia, pero esta es mucho más que la mera búsqueda del método para fabricar oro. La palabra crisopeya viene del griego χρυσoσ, «oro», y πoιεω, «hacer». El prefijo criso entra en la formación de palabras en que interviene el oro, como crisoterapia (tratamiento de ciertas enfermedades por medio de sales de oro). La alquimia en la historia La alquimia comprende varias tradiciones filosóficas abarcando cerca de cuatro milenios y tres continentes. La general predilección de estas tradiciones por el lenguaje críptico y simbólico hace que resulte difícil trazar sus mutuas influencias y relaciones «genéticas». Pueden distinguirse al menos dos tendencias principales, que parecen ser ampliamente independientes, al menos en sus primeras etapas: la alquimia china, centrada en China y su zona de influencia cultural, y la alquimia occidental, cuyo centro se desplazó a lo largo del tiempo entre Egipto, Grecia y Roma, el mundo islámico, y finalmente de nuevo Europa. La alquimia china estaba íntimamente relacionada con el taoísmo, mientras que la alquimia occidental desarrolló su propio sistema filosófico, con relaciones solo superficiales con las principales religiones occidentales. Aún está abierta la cuestión de si estas dos ramas comparten un origen común o hasta qué extremo se influyeron una a la otra. La alquimia en el Antiguo Egipto El origen de la alquimia occidental puede situarse en el Antiguo Egipto, a partir de la confluencia de la ciencia sacerdotal con la filosofía helenística en la época ptolemaica. No obstante, a pesar de que el corpus simbólico clásico pertenezca a esta última etapa, la cosmogonía y la idea de naturaleza del Egipto antiguo están en el origen de muchas ideas alquímicas, ya que la metalurgia y el misticismo estaban inexorablemente unidas en el mundo antiguo. La alquimia, la medicina e incluso la magia eran aspectos de la religión en el Antiguo Egipto y, por tanto, del dominio de la clase sacerdotal. Según la tradición egipcia, el faraón Keops fue el más antiguo alquimista y el autor del primer tratado de alquimia. La alquimia egipcia es conocida principalmente a través de los escritos de antiguos filósofos griegos (helénicos), que a su vez han perdurado a menudo solo en traducciones islámicas. Prácticamente no se ha conservado ningún documento egipcio original sobre la alquimia. Estos escritos, si existieron, probablemente se perdieron cuando el emperador Diocleciano ordenó la quema de libros alquímicos tras sofocar una revuelta en Alejandría (292), que había sido un centro de alquimia egipcia. No obstante, recientes expediciones arqueológicas han desenterrado evidencias de análisis químico durante los periodos Naqada. Por ejemplo, una herramienta de cobre fechada en esta época tiene rastros de haber sido usada de esta forma. Además, el proceso de curtir pieles animales ya se conocía en el Egipto predinástico en tiempos tan antiguos como el VI milenio a. C. Otras evidencias indican claramente que los primitivos alquimistas del Antiguo Egipto habían ideado pastas de yeso ya en el 4000 a. C., morteros cimentantes hacia el 2500 a. C. y el vidrio en el 1500 a. C. La reacción química implicada en la producción del óxido de calcio es una de la más antiguas conocidas: CaCO3 + calor ⇒ CaO + CO2 En el Antiguo Egipto se produjeron cosméticos, fayenza y también pez para la construcción naval. El papiro también había sido inventado hacia el 3000 a. C. La leyenda cuenta que el fundador de la alquimia egipcia fue el dios Tot, llamado Hermes-Tot o Hermes Trismegisto («Tres veces grande») por los griegos. Según la leyenda, escribió los llamados cuarenta y dos Libros del Saber, abarcando todos los campos del conocimiento, alquimia incluida. El símbolo de Hermes era el caduceo o vara con serpientes, que llegó a ser uno de los muchos símbolos principales de la alquimia. La Tabla de Esmeralda o Hermética de Hermes Trismegisto, conocida solo por traducciones griegas y árabes, es normalmente considerada la base de la filosofía y práctica alquímicas occidentales, llamada filosofía hermética por sus primeros seguidores. En el segundo precepto de la Tabla de Esmeralda cuenta el propósito de la ciencia hermética: «en verdad ciertamente y sin duda, todo lo que está abajo es como lo que está arriba, y todo lo que está arriba es como lo que está abajo, para realizar los milagros de una cosa» . Esta es la creencia macrocosmos-microcosmos principal para la filosofía hermética. En otras palabras, el cuerpo humano (el microcosmos) se ve afectado por el mundo exterior (el macrocosmos), que incluye los cielos a través de la astrología y la tierra a través de los elementos, aunque cuando uno logra el dominio sobre el mundo interior, comienza a ser capaz de controlar el mundo exterior de formas poco convencionales. Se ha especulado con que un acertijo de la Tabla de Esmeralda («fue llevado en el vientre por el viento») alude a la destilación de oxígeno a partir de salitre, un proceso que era desconocido en Europa hasta su (re) descubrimiento por Sendivogius en el siglo . En el , los macedonios grecoparlantes conquistaron Egipto y fundaron la ciudad de Alejandría en 332. Esto los puso en contacto con las ideas egipcias (véase «La alquimia en el mundo griego» más adelante). La alquimia china La alquimia china está relacionada con el taoísmo, consecuentemente, sus practicantes utilizan conceptos tales como: los cinco elementos; el Tao, la relación entre el Yin y el Yang; el Qì; el I Ching; la astrología china; los principios del Feng Shui, la Medicina Tradicional China, etc. Mientras la alquimia occidental terminó centrándose en la transmutación de metales corrientes en otros nobles, la alquimia china tuvo una conexión más obvia con la medicina. La piedra filosofal de los alquimistas europeos puede ser comparada con el gran elixir de la inmortalidad perseguido por los alquimistas chinos. Sin embargo, en la visión hermética, estas dos metas no estaban desconectadas y la piedra filosofal era con frecuencia equiparada a la panacea universal. Por tanto, las dos tradiciones pueden haber tenido más en común de lo que inicialmente parece. La pólvora puede haber sido una importante invención de los alquimistas chinos. Descrita en textos del siglo y usada en fuegos artificiales en el siglo , fue empleada en cañones sobre 1290. Desde China, el uso de la pólvora se extendió a Japón, los mongoles, el mundo árabe y Europa. La pólvora fue usada por los mongoles contra los húngaros en 1241 y en Europa a partir del siglo . La alquimia china estaba estrechamente relacionada con las formas taoístas de la medicina tradicional china, tales como la acupuntura y la moxibustión, y con artes marciales como el Tai Chi Chuan y el Kung Fu (aunque algunas escuelas de Tai Chi creen que su arte deriva de las ramas filosófica o higiénica del taoísmo, no de la alquímica). De hecho, al principio de la dinastía Song, los seguidores de esta idea taoísta (principalmente la élite y la clase alta) ingerían cinabrio, que, aunque tolerable en bajas dosis, llevó a muchos a la muerte por su elevado contenido en mercurio (85%), que inducía el envenenamiento. Creyendo que estas muertes llevarían a la libertad y el acceso a los cielos taoístas, las consiguientes muertes animaron a la gente a evitar esta forma de alquimia en favor de fuentes externas (el antes mencionado Tai Chi Chuan, el dominio del Qi, etc.). La alquimia india Poco se conoce en Occidente sobre el carácter y la historia de la alquimia india. Un alquimista persa del siglo llamado al-Biruni informó que «tienen una ciencia parecida a la alquimia que es bastante característica de ellos, a la que llaman Rasayāna, en persa Rasavātam. Significa el arte de obtener y manipular Rasa, néctar, mercurio, zumo. Este arte está restringido a ciertas operaciones, metales, drogas, compuestos y medicinas, la mayoría de los cuales tienen mercurio como ingrediente principal. Sus principios devuelven la salud a aquellos enfermos que estaban desahuciados y la juventud a los marchitos ancianos». Sin embargo, sí es seguro que la alquimia india, como toda su ciencia, se centra en lograr el mokṣa: la perfección, la inmortalidad, la liberación. Así, concentra sus esfuerzos en hacer inmortal el cuerpo humano. Son muchas las historias tradicionales de alquimistas aún vivos desde tiempo inmemorial gracias a los efectos de sus experimentos. Los textos de medicina aiurvédica tienen aspectos relacionados con la alquimia, como tener curas para todas las enfermedades conocidas y métodos para tratar a los enfermos mediante la unción de aceites. El mejor ejemplo de texto basado en esta ciencia es el Vaisheshika de Kanada (entre el 200 a. C. y el 200 d. C.), quien describe una teoría atómica parecida a la del griego Demócrito. Dado que la alquimia terminaría integrada en el vasto campo de la erudición india, las influencias de otras doctrinas metafísicas como el samkhya, el yoga, el vaisheshika y el ayurveda fueron inevitables. Sin embargo, la mayoría de los textos Rasayāna tienen sus raíces en las escuelas tántricas Kaula relacionadas con las enseñanzas de la personalidad de Matsyendranath. El Rasayāna era entendido por muy poca gente en aquella época. Dos famosos ejemplos eran Nagarjunacharya y Nityanadhiya. El primero era un monje budista que, en tiempos antiguos, dirigía la gran universidad de Nagarjuna Sagar. Su conocido libro, Rasaratanakaram, es un famoso ejemplo de la antigua medicina india. En la terminología médica tradicional india rasa se traduce como «mercurio», y se decía que Nagarjunacharya había desarrollado un método para convertirlo en oro. La mayoría de sus obras originales se han perdido, pero sus enseñanzas tienen aún una fuerte influencia en la medicina tradicional india (Āyurveda). La alquimia en el mundo griego La ciudad griega de Alejandría en Egipto era un centro de saber alquímico que retuvo su preeminencia durante la mayor parte de las eras griega y romana. Los griegos se apropiaron de las creencias herméticas egipcias y las unieron con las filosofías pitagórica, jonista y gnóstica. La filosofía pitagórica es, esencialmente, la creencia en que los números gobiernan el universo, surgida de las observaciones del sonido, las estrellas y formas geométricas como los triángulos o cualquiera de la que pueda derivarse una razón. El pensamiento jonista se basaba en la creencia en que el universo podía ser explicado mediante la concentración en los fenómenos naturales; se cree que esta filosofía fue iniciada por Tales de Mileto y su pupilo Anaximandro y posteriormente desarrollada por Platón y Aristóteles, cuyas obras llegaron a ser una parte integral de la alquimia. Según esta creencia, el universo puede ser descrito por unas pocas leyes unificadas que pueden determinarse solo mediante cuidadosas, minuciosas y arduas exploraciones filosóficas. El tercer componente introducido a la filosofía hermética por los griegos fue el gnosticismo, una creencia, extendida en el Imperio romano cristiano, en que el mundo es imperfecto porque fue creado de manera imperfecta y que el aprendizaje sobre la naturaleza de la sustancia espiritual llevaría a la salvación. Incluso creían que Dios no «creó» el universo en el sentido clásico, sino que el universo fue creado «de» él pero se corrompió en el proceso (en lugar de corromperse por las transgresiones de Adán y Eva, es decir, por el pecado original). Según las creencias gnósticas, al adorar el cosmos, la naturaleza o las criaturas del mundo, uno adora al Dios Verdadero. Muchas sectas gnósticas sostenían incluso que la deidad bíblica sería mala y debía ser vista como una emanación caída del Elevado Dios a quien buscaban adorar y unirse. Sin embargo, el aspecto del dios abrahámico como ser malvado no jugó en realidad papel alguno en la alquimia, pero el aspecto del ascenso al Elevado Dios probablemente tuvo mucha influencia. Las teorías platónicas y neoplatónicas sobre los universales y la omnipotencia de Dios también fueron absorbidas (sus principales creencias ven el aspecto físico del mundo como imperfecto y creen en Dios como una mente cósmica trascendente). Un concepto muy importante introducido en esta época, concebido por Empédocles y desarrollado por Aristóteles, fue que todas las cosas del universo estaban formadas por solo cuatro elementos: tierra, aire, agua y fuego. Según Aristóteles, cada elemento tenía una esfera a la que pertenecía y a la que regresaría si se le dejaba intacto. Los cuatro elementos de los griegos eran aspectos mayoritariamente cualitativos de la materia y no cuantitativos como lo son nuestros elementos modernos. «... La auténtica alquimia nunca trató la tierra, el aire, el agua y el fuego como sustancias corpóreas o químicas en el sentido actual de la palabra. Los cuatro elementos era simplemente las cualidades primarias y más generales por medio de las cuales la sustancia amorfa y puramente cuantitativa de todos los cuerpos se presentaba primero en una forma diferenciada». Alquimistas posteriores desarrollaron extensivamente los aspectos místicos de este concepto. Aristóteles creía que la combinación de cada elemento explica la variedad de cosas en el mundo. Se consideraba que las substancias pesadas tales como los metales estaban principalmente formadas por el elemento tierra, con una cantidad reducida de materia de los otros elementos. Creía que cuando los rayos del sol caían sobre el agua, producían una exhalación de vapor que era húmeda y fría. Esta exhalación se encerraba en tierra seca, se comprimía y finalmente se convierte en metal. Según Aristóteles, todos los metales que son fusibles o maleables, como hierro, cobre u oro, se formaron de esta manera. La formación de minerales, por otro lado, ocurrió cuando los rayos del sol cayeron en tierra seca. Produjeron una exhalación de humo que estaba caliente y seca, y la acción del calor produjo los minerales. En esta categoría, Aristóteles incluía sustancias que no se pueden derretir, así como sustancias como el azufre. La alquimia en el Imperio romano Los romanos adoptaron la alquimia y la metafísica griegas, al igual que adoptaron gran parte de su conocimiento y filosofía. Al final del Imperio romano la filosofía alquímica se había unido a las filosofías de los egipcios creando el culto del hermetismo. Sin embargo, el desarrollo del cristianismo en el Imperio trajo una línea opuesta de pensamiento, proveniente de Agustín de Hipona (354-430), un filósofo cristiano temprano que escribió sobre sus creencias poco antes de la caída del Imperio romano. En esencia, Agustín sentía que la razón y la fe podían ser usadas para entender a Dios, pero que la filosofía experimental era nociva: «Hay también presente en el alma, por los medios de estos mismos sentidos corporales, una especie de vacío anhelo y curiosidad que pretende no conseguir el placer de la carne sino adquirir experiencia a través de esta, y esta vacía curiosidad se dignifica con los nombres de conocimiento y ciencia». Las ideas agustinianas eran decididamente antiexperimentales, si bien las técnicas experimentales aristotélicas no fueron rechazadas cuando estuvieron disponibles en Occidente. Aun así, el pensamiento agustiniano tuvo fuerte arraigo en la sociedad medieval y se usó para mostrar la alquimia como contraria a Dios. Buena parte del saber alquímico romano, como el de los griegos y los egipcios, se ha perdido. En Alejandría, el centro de los estudios alquímicos en el Imperio romano, el arte era principalmente oral y en interés del secreto poco se confiaba al papel. (De ahí el uso de «hermético» para indicar «reservado») Es posible que alguna obra fuese escrita en Alejandría y que subsecuentemente se perdiese o quemase en los turbulentos periodos siguientes. La alquimia en el mundo islámico Tras la caída del Imperio romano, el foco de desarrollo alquímico se trasladó al mundo islámico. Se sabe mucho más sobre la alquimia islámica porque fue documentada mejor: de hecho, la mayoría de los primeros escritos que han sobrevivido el paso de los años lo han hecho como traducciones islámicas. El mundo islámico fue un crisol para la alquimia. El pensamiento platónico y aristotélico, que ya había sido en cierta medida incluido en la ciencia hermética, continuó siendo asimilado. Alquimistas islámicos como al-Razi (en latín Rasis) y Jabir ibn Hayyan (en latín Geber) aportaron descubrimientos químicos clave propios, tales como la técnica de la destilación (las palabras alambique y alcohol son de origen árabe), los ácidos muriático (clorhídrico), sulfúrico y nítrico, la sosa, la potasa y más. (De los nombres árabes para estas dos últimas sustancias, al-natrun y al-qalīy, latinizados como Natrium y Kalium, proceden los símbolos modernos del sodio y el potasio.) El descubrimiento de que el agua regia, una mezcla de ácido nítrico y clorhídrico, podía disolver el metal más noble —el oro— habría de avivar la imaginación de alquimistas durante el siguiente milenio. Los filósofos islámicos también hicieron grandes contribuciones al hermetismo alquímico. El autor más influyente en este aspecto posiblemente fuera Abu Musa Jabir ibn Hayyan (en árabe جابر إبن حيان, en latín Geberus, normalmente escrito en castellano como Geber). El objetivo primordial de Jabir era la takwin, la creación artificial de vida en el laboratorio alquímico, hasta e incluyendo la vida humana. Jabir analizó cada elemento aristotélico en términos de las cuatro cualidades básicas de calor, frío, sequedad y humedad. De acuerdo con él, en cada metal dos de estas cualidades eran interiores y dos exteriores. Por ejemplo, el plomo era externamente frío y seco, mientras que el oro era caliente y húmedo. De esta forma, teorizaba Jabir, reordenando las cualidades de un metal, podía obtenerse uno diferente. Con este razonamiento, la búsqueda de la piedra filosofal fue introducida en la alquimia occidental. Jabir desarrolló una elaborada numerología mediante la que las iniciales del nombre de una sustancia en árabe, cuando se les aplicaban varias transformaciones, mantenían correspondencias con las propiedades físicas del elemento. La alquimia en la Europa medieval Debido a sus fuertes conexiones con las culturas griega y romana, la alquimia fue bastante fácilmente aceptada por la filosofía cristiana y los alquimistas medievales europeos absorbieron extensivamente el conocimiento alquímico islámico. Gerberto de Aurillac (fallecido en 1003), quien más tarde se convertiría en el papa Silvestre II, fue uno de los primeros en llevar la ciencia islámica a Europa desde España. Más tarde, hombres como Adelardo de Bath, quien vivió en el , trajeron enseñanzas adicionales. Pero hasta el los movimientos fueron principalmente asimilativos. En este periodo aparecieron algunas desviaciones de los principios agustinianos de los primeros pensadores cristianos. San Anselmo (1033-1109) fue un benedictino que creía que la fe debe preceder a la razón, como Agustín y la mayoría de los teólogos anteriores a él había creído, aunque él añadió la opinión de que la fe y la razón eran compatibles y fomentó este último en un contexto cristiano. Sus puntos de vista sentaron las bases para la explosión filosófica que habría de ocurrir. Pedro Abelardo continuó el trabajo de Anselmo, preparando los cimientos para la aceptación del pensamiento aristotélico antes de que las primeras obras de Aristóteles alcanzasen Occidente. Su principal influencia en la alquimia fue su creencia en que los universales platónicos no tenían una existencia separada fuera de la consciencia del hombre. Abelardo también sistematizó el análisis de las contradicciones filosóficas. Robert Grosseteste (1170-1253) fue un pionero de la teoría científica que posteriormente sería usada y refinada por los alquimistas. Grosseteste tomó los métodos de análisis de Abelardo y añadió el uso de observaciones, experimentación y conclusiones al realizar evaluaciones científicas. También trabajó mucho para tender un puente entre el pensamiento platónico y el aristotélico. Alberto Magno (1193-1280) y Tomás de Aquino (1225-1274) fueron dos dominicos que estudiaron a Aristóteles y trabajaron en la reconciliación de las diferencias entre la filosofía y el cristianismo. Tomás de Aquino también trabajó intensamente en desarrollar el método científico. Incluso fue tan lejos como para afirmar que los universales podrían ser descubiertos solo mediante el razonamiento lógico y, como la razón no puede oponerse a Dios, debe por tanto ser compatible con la teología. Esto contradecía la comúnmente aceptada creencia platónica en que los universales se encontraban solo mediante iluminación divina. Ambos estuvieron entre los primeros en emprender el examen de la teoría alquímica y ellos mismos podrían ser considerados alquimistas, excepto por el hecho de que hicieron poco en cuanto a la experimentación. El primer alquimista auténtico en la Europa medieval fue Roger Bacon. Su obra supuso tanto para la alquimia como la de Robert Boyle para la química y la de Galileo Galilei para la astronomía y la física. Bacon (1214-1294) era un franciscano de Oxford que estudió la óptica y los lenguajes además de la alquimia. Los ideales franciscanos de conquistar el mundo en lugar de rechazarlo le llevaron a su convicción de que la experimentación era más importante que el razonamiento: «De las tres formas en las que los hombres piensan que adquieren conocimiento de las cosas: autoridad, razonamiento y experiencia, solo la última es efectiva y capaz de llevar de paz al intelecto». «La ciencia experimental controla las conclusiones de todas las otras ciencias. Revela verdades que el razonamiento de los principios generales nunca habrían descubierto». A Roger Bacon también se le ha atribuido el inicio de la búsqueda de la piedra filosofal y del elixir de la vida: «Esa medicina que eliminará todas las impurezas y corrupciones de los metales menores también, en opinión de los sabios, quitará tanto de la corruptibilidad del cuerpo que la vida humana podrá ser prolongada durante muchos siglos». La idea de la inmortalidad fue reemplazada por la noción de la longevidad: después de todo, el tiempo que el hombre pasa en la Tierra era simplemente para esperar y prepararse para la inmortalidad en el mundo de Dios. La inmortalidad en la Tierra no encajaba con la teología cristiana. Bacon no fue el único alquimista de esta época pero sí el más importante. Sus obras fueron usadas por incontables alquimistas entre los siglos y . Otros alquimistas de su misma época compartieron diversos rasgos. Primero, y más obviamente, casi todos fueron miembros del clero. Esto se debía simplemente a que poca gente fuera de las escuelas parroquiales tenía la educación necesaria para examinar las obras derivadas del árabe. Además, la alquimia en esta época era autorizada por la iglesia como un buen método de explorar y desarrollar la teología. La alquimia era interesante para la amplia variedad de clérigos porque ofrecía una visión racionalista del universo donde los hombres apenas estaban empezando a aprender sobre el racionalismo. Así que hacia finales del , la alquimia se había desarrollado hasta un sistema de creencias bastante estructurado. Los adeptos creían en las teorías de Hermes sobre el macrocosmos-microcosmos, es decir, creían que los procesos que afectan a los minerales y otras sustancias podían tener un efecto en el cuerpo humano (por ejemplo, si uno aprendiese el secreto de purificar oro, podría usar la misma técnica para purificar el alma humana). Creían en los cuatro elementos y las cuatro cualidades anteriormente descritas y tenían una fuerte tradición de esconder sus ideas escritas en un laberinto de jerga codificada lleno de trampas para despistar a los no iniciados. Por último, los alquimistas practicaban su arte: experimentaban activamente con sustancias químicas y hacían observaciones y teorías sobre cómo funcionaba el universo. Toda su filosofía giraba en torno a su creencia en que el alma del hombre estaba dividida dentro de él tras la caída de Adán. Purificando las dos parte del alma del hombre, este podría reunirse con Dios. En el se produjeron cambios importantes. Por una parte, en el año 1317, el papa Juan XXII prohíbe la práctica de la alquimia a través de la bula Spondent Pariter que retiró a todos los miembros de la iglesia de la práctica de este arte. No obstante, se cree que este mismo papa estuvo interesado en el estudio alquímico y que también escribió un tratado titulado Ars transmutatoria en el que narraba cómo fabricó 200 barras de oro de un quintal. Esto no era nuevo en el seno de la iglesia ya que en 1295 la legislación de los franciscanos prohibió escribir, leer e incluso poseer libros de alquimia. Mientras tanto los filósofos de la época variaron sus puntos de vista ya que Guillermo de Ockham, un franciscano de Oxford que murió en 1349, atacó la visión tomista de la compatibilidad entre la fe y la razón. Su opinión, hoy ampliamente aceptada, era que Dios debe ser aceptado solo con la fe, pues Él no podía ser limitado por la razón humana. Por supuesto este punto de vista no era incorrecto si uno aceptaba el postulado de un Dios ilimitado frente a la limitada capacidad humana para razonar, pero eliminó virtualmente a la alquimia como práctica aceptada en los siglos y . Los cambios climáticos, la peste negra y el incremento de guerras y hambrunas que caracterizaron a este siglo sirvieron también sin duda de obstáculo al ejercicio filosófico en general. La alquimia se mantuvo viva gracias a hombres como Nicolas Flamel, digno de mención solo porque fue uno de los pocos alquimistas que escribieron en estos tiempos difíciles. Flamel vivió entre 1330 y 1417 y serviría como arquetipo a la siguiente fase de la alquimia. No fue un investigador religioso como muchos de sus predecesores y todo su interés por el arte giraba en torno a la búsqueda de la piedra filosofal, que se dice que halló. Sus obras dedican gran cantidad de espacio a describir procesos y reacciones, pero nunca llegan realmente a dar la fórmula para conseguir las transmutaciones. La mayoría de su obra estaba dedicada a recoger el saber alquímico anterior a él, especialmente en lo relacionado con la piedra filosofal. Durante la Baja Edad Media (1300-1500) los alquimistas fueron muy parecidos a Flamel: se concentraron en la búsqueda de la piedra filosofal y el elixir de la juventud, que ahora se creía que eran cosas separadas. Sus alusiones crípticas y su simbolismo llevaron a grandes variaciones en la interpretación del arte. Por ejemplo, muchos alquimistas durante este periodo interpretaban que la purificación del alma significaba la transmutación del plomo en oro (en la que creían que el mercurio desempeñaba un papel crucial). Estos hombres eran considerados magos y hechiceros por muchos y fueron con frecuencia perseguidos por sus prácticas.. Uno de estos hombres que surgió a principios del se llamaba Heinrich Cornelius Agrippa. Este alquimista creía ser un mago y poder invocar espíritus. Su influencia fue insignificante pero, como Flamel, elaboró escritos a los que se refirieron alquimistas de años posteriores. De nuevo como Flamel, hizo bastante por cambiar la alquimia de una filosofía mística a una magia ocultista. Mantuvo vivas las filosofías de alquimistas anteriores, incluyendo la ciencia experimental, la numerología, etc., pero añadió la teoría mágica, lo que reforzó la idea de la alquimia como creencia ocultista. A pesar de todo esto, Agrippa se consideraba a sí mismo cristiano, si bien sus opiniones entraron con frecuencia en conflicto con la Iglesia, en afirmaciones de y . La alquimia en la era moderna y el Renacimiento La alquimia europea continuó por esta misma senda hasta los albores del Renacimiento. Esta época vio también un florecimiento de los estafadores que usaban trucos químicos y juegos de manos para «demostrar» la transmutación de metales comunes en oro o que afirmaban poseer el conocimiento del secreto que (con una «pequeña» inversión inicial) llevaría con toda seguridad a ello. El nombre más importante de este periodo es Paracelso (1493-1541), quien dio a la alquimia una nueva forma, rechazando parte del ocultismo que había acumulado a lo largo de los años y promoviendo el uso de observaciones y experimentos para aprender sobre el cuerpo humano. Paracelso rechazó las tradiciones gnósticas pero mantuvo mucho de las filosofías hermética, neoplatónica y pitagórica; sin embargo, la ciencia hermética tenía tanta teoría aristotélica que su rechazo del gnosticismo era prácticamente insignificante. En particular, rechazó las teorías mágicas de Flamel y Agrippa. Paracelso no se veía a sí mismo como un mago y desdeñaba a quienes lo hacían. Paracelso fue pionero en el uso de compuestos químicos y minerales en medicina. Escribió que «Muchos han dicho que la alquimia es para fabricar oro y plata. Para mí no es tal el propósito, sino considerar solo la virtud y el poder que puede haber en las medicinas». Sus puntos de vista herméticos eran que la enfermedad y la salud del cuerpo dependían de la armonía del hombre (el microcosmos) y la naturaleza (el macrocosmos). Paracelso dio un enfoque diferente al de sus predecesores, usando esta analogía no como referencia a la purificación del alma sino a que los humanos deben mantener ciertos equilibrios de minerales en sus cuerpos y que para ciertas enfermedades de estos había remedios químicos que podían curarlas.. Mientras sus intentos de tratar enfermedades con remedios tales como el mercurio podrían parecer contraproducentes desde un punto de vista moderno, su idea básica de medicinas producidas químicamente ha permanecido vigente sorprendentemente bien. En Inglaterra la alquimia en esta época se asocia frecuentemente con John Dee (1527-1608), más conocido por sus facetas de astrólogo, criptógrafo y «consultor científico» general de la reina Isabel I. Dee era considerado una autoridad en la obra de Roger Bacon y estuvo lo suficientemente interesado en la alquimia como para escribir un libro sobre ella (Monas Hieroglyphica, 1564), influenciado por la cábala. El socio de Dee, Edward Kelley —quien afirmaba conversar con ángeles a través de una bola de cristal y poseer un polvo que transformaría el mercurio en oro—, puede haber sido la fuente de la imagen popular del alquimista-charlatán. Un alquimista menos conocido de esta época es Miguel Sendivogius (1566-1636), filósofo, médico y pionero de la química polaco. Según algunas fuentes, destiló oxígeno en el laboratorio sobre 1600, 170 años antes que Scheele y Priestley, calentando salitre. Pensaba que el gas resultante era «el elixir de la vida». Poco después de descubrir este método, se cree que Sendivogius enseñó su técnica a Cornelius Drebbel, quien en 1621 le daría aplicación práctica en un submarino. Tycho Brahe (1546-1601), conocido por sus investigaciones astronómicas y astrológicas, era también un alquimista. Tuvo un laboratorio expresamente construido para este fin en Uraniborg, su observatorio e instituto de investigación. El declive de la alquimia occidental La desaparición de la alquimia occidental se debió al auge de la ciencia moderna con su énfasis en la rigurosa experimentación cuantitativa y su desdén hacia la «sabiduría antigua». Aunque las semillas de estos sucesos fueron plantadas ya en el siglo , la alquimia aún prosperó durante unos doscientos años, y de hecho puede que alcanzase su apogeo en el siglo . En 1781, James Price afirmó haber producido un polvo que podía transmutar el mercurio en plata u oro. Igualmente otro alquimista conocido era el arzobispo húngaro Jorge Lippay, quien realizó varias investigaciones para el emperador germánico Leopoldo I de Habsburgo, entusiasta creyente de la teoría de la creación del oro. Robert Boyle, conocido por sus estudios sobre los gases (véase la ley de Boyle), fue uno de los pioneros del método científico en las investigaciones químicas. Boyle no asumía nada en sus experimentos y recopilaba todos los datos relevantes: en un experimento típico anotaba el lugar en el que se efectuaba, las características del viento, las posiciones del sol y la luna y la lectura barométrica, por si luego resultasen ser relevantes. Este enfoque terminó llevando a la fundación de la química moderna en los siglos y , basada en los revolucionarios descubrimientos de Lavoisier y John Dalton, que finalmente proporcionaron un marco de trabajo lógico, cuantitativo y fiable para entender las transmutaciones de la materia, revelando la futilidad de las tradicionales metas alquímicas tales como la piedra filosofal. Mientras tanto, la alquimia paracélsica llevó al desarrollo de la medicina moderna. Los experimentalistas descubrieron gradualmente los mecanismos del cuerpo humano, tales como la circulación de la sangre (Harvey, 1616), y finalmente localizaron el origen de muchas enfermedades en las infecciones con gérmenes (Koch y Pasteur, siglo ) o la falta de nutrientes y vitaminas naturales (Lind, Eijkman, Funk et al.). Apoyada en el desarrollo paralelo de la química orgánica, la nueva ciencia desplazó fácilmente a la alquimia en sus aplicaciones médicas, interpretativas y prescriptivas, mientras apagaba sus esperanzas en elixires milagrosos y mostraba la inefectividad e incluso toxicidad de sus remedios. De esta forma, a medida que la ciencia siguió descubriendo y racionalizando continuamente los mecanismos del universo, fundada en su propia metafísica materialista, la alquimia fue quedando despojada de sus conexiones química y médica, pero incurablemente sujeta a ellas. Reducida a un sistema filosófico arcano, pobremente relacionada con el mundo material, la alquimia sufrió el destino común a otras disciplinas esotéricas tales como la astrología y la cábala: excluida de los estudios universitarios, rechazada por sus antiguos mecenas, relegada al ostracismo por los científicos y considerada habitualmente como el epítome de la charlatanería y la superstición. Sin embargo, los rosacruces y francmasones siempre han estado interesados en la alquimia y su simbolismo. Una gran colección de libros sobre alquimia se guarda en la Bibliotheca Philosophica Hermetica de Ámsterdam. Estos avances podrían ser interpretados como parte de una reacción más amplia del intelectualismo europeo contra el movimiento romántico del siglo anterior. Alquimia en la época moderna En la época actual se han realizado progresos para alcanzar algunas de las metas de la alquimia aunque usando métodos científicos. Podría decirse que el objetivo de la investigación en inteligencia artificial es precisamente crear una vida desde cero, y los filosóficamente opuestos a la posibilidad de la IA la han comparado con la alquimia, como Herbert y Stuart Dreyfus en su ensayo de 1960 Alquimia e IA (Alchemy and AI). Sin embargo, debido a que el objetivo específico de la alquimia es la transmutación humana más que la creación de vida desde cero, la investigación genética, especialmente el ayuste, estaría más cerca de la misma. Transmutación nuclear En 1919 Ernest Rutherford usó la desintegración artificial para convertir nitrógeno en oxígeno, aunque usando métodos de bombardeo nuclear. Este proceso o transmutación ha sido posteriormente realizado a escala comercial mediante el bombardeo de núcleos atómicos con partículas de alta energía en aceleradores de partículas y reactores nucleares. La idea de convertir plomo en oro no es del todo incorrecta ya que, teóricamente, bastaría extraer 3 protones de un átomo de plomo (82 protones) para obtener otro pero de oro (79 protones). De hecho, en 1980 Glenn T. Seaborg transmutó plomo en oro, solo que el oro resultante apenas dura unos segundos por su inestabilidad atómica y la cantidad obtenida es tan microscópica que hace impensable su rentabilidad. Afirmaciones de transmutación no verificadas En 1964 George Ohsawa y Michio Kushi, basándose en una de las primeras afirmaciones de Corentin Louis Kervran, informaron haber logrado transmutar sodio en potasio usando un arco eléctrico, y más tarde carbono y oxígeno en hierro. En 1994, R. Sundaresan y J. Bockris informaron haber observado reacciones de fusión en descargas eléctricas entre barras de carbono sumergidas en agua. Sin embargo, ninguna de estas afirmaciones ha sido reproducida por otros científicos y la idea está en la actualidad ampliamente desacreditada. Psicología analítica El psiquiatra suizo Carl Gustav Jung inició su contacto con la alquimia desde un claro desinterés: «La alquimia me parecía una cosa afectada y ridícula». Su opinión cambiaría radicalmente en 1928 a raíz del comentario solicitado por parte del sinólogo Richard Wilhelm sobre la traducción de las ocho primeras secciones de un tratado de alquimia fisiológica china del siglo : El secreto de la flor de oro, libro budista con base taoísta. El inicio de su contacto con la alquimia se vio por lo tanto determinado al contemplar en la obra las bases del proceso de individuación, así como un centro procesual al que denominó posteriormente sí-mismo. Necesitó diez años para elaborar un diccionario de referencias cruzadas con el fin de poder entender los significados incluidos en los textos alquímicos, así como quince años para disponer de una biblioteca semejante a las de sus sueños. A todo ello no hay que olvidar la importancia que revistieron para el acceso de Jung a la esencia de la alquimia diversas figuras históricas relevantes, como son María la Judía, Zósimo de Panópolis o Paracelso. Jung vio la alquimia como una protopsicología occidental dedicada al logro de la individuación. En su interpretación, la alquimia era el recipiente en el que el gnosticismo sobrevivió sus diversas purgas en el Renacimiento. En este sentido, Jung veía la alquimia como comparable al yoga en occidente. También interpretaba los textos alquímicos chinos en términos de su psicología analítica como medios para la individuación. Jung sostiene en su obra Psicología y alquimia (1944) que los fenómenos observables de lo inconsciente, tales como los sueños, contienen elementos simbólicos que también se pueden hallar en la simbología alquímica. Además, dedica un análisis al paralelismo entre los conceptos de la llamada piedra filosofal, por un lado, y la figura de Cristo, por otro. Ilustró a través de las figuras del Rosarium philosophorum incluidas en su trabajo La psicología de la transferencia (1946) aquellos fenómenos transferenciales acaecidos en el proceso de individuación. Finalmente, en su obra Mysterium coniunctionis (1955-1956), configura la culminación de la confrontación entre la alquimia y la psicología analítica. Como tercera parte de dicha obra se incluirá editado y comentado por Marie-Louise von Franz el Aurora consurgens. Restarían aún por publicar dos importantes obras inéditas de Jung sobre alquimia, en proceso de edición por la Philemon Foundation: El Volumen 8 de sus Conferencias ETH impartidas durante el semestre de invierno de 1940/1941 y el semestre de verano de 1941, titulado La psicología de la alquimia. Una importante obra sobre alquimia e individuación fechada en 1937, inédita y desconocida hasta ahora, a publicar en 2024. Obras clásicas de alquimia Albertus Magnus, Compositum de Compositis (El compuesto de los compuestos). Altus, Mutus Liber (El libro mudo). Arnau de Vilanova, Semita Semitæ (El camino del camino). Basilius Valentinus, Carrus Triumphalis Antimonii (El carro triunfal del antimonio); Duodecim Claves. Bernardo de Treviso, El sueño verde. Bibliotheca Philosophica Hermetica. Conversación del rey Calid y del filósofo Morien sobre el magisterio de Hermes. Donum Dei. Elias Ashmole, Theatrum chemicum britannicum. Eugenio Filaleteo, El arte hermético al descubierto. Fulcanelli, El misterio de las catedrales; Las moradas filosofales; Finis Gloriæ Mundi. Georges Aurach, El jardín de las riquezas. Hermes Trismegisto, Tabla de Esmeralda. Instrucción de un padre a su hijo acerca del árbol solar. Lambspring, Libro de Lambspring. Jacques Le Tesson, La obra del león verde. La clavícula o La clave universal (atribuido a Raimundus Lullus). Le Crom, Tratado de la sal de los filósofos. Libro de Picatrix. Lucas Jennis, Musaeum hermeticum. Michael Maier, Atalanta Fugiens; Scrutinium Chymicum; Septimana Philosophica; Arcana Arcanissima; Viatorum; Lusus Scrius; Symbola Aureæ; Themis Aurea o De Circulo Physico Cuadrato. Michael Sendivogius, Carta filosófica; Novum Lumen Chymicum; Dialogus Mercurii; Tractatus de Sulphure; Ænigma Philosphicum. Nicholas Flamel, El libro de las figuras jeroglíficas; El deseo deseado. Roberto Valensis, La gloria del mundo o La tabla del paraíso. Roger Bacon, Speculum Alchemiæ (El espejo de la alquimia); Alchemia Major; De Ione Viridi; Breviaram de dono Dei; Secretm secretorum; Epístolæ de secretis operibus artis et naturæ ac mullitate magiæ. Rosarium philosophorum. Speculum veritatis. Splendor Solis. Stolcius von Stolcenberg, Vyridarium Chymicum. Teofrasto Paracelso, Opera Omnia; De Natura Rerum Libri Novem; Thesaurus Thesaurorum Alchimistorum (El tesoro de los tesoros de los alquimistas). Theatrum chemicum (Teatro químico), recopilación de tratados alquímicos del Renacimiento. Tomás de Aquino, Aurora consurgens; Tratado de la piedra filosofal; Tratado sobre el arte de la alquimia. Tratado del secreto del arte filosófico: la arqueta del pequeño campesino. Turba philosophorum. Valentín Andreae, Las bodas alquímicas de Christian Rosacruz. La alquimia en la cultura popular Muchos escritores satirizaron a los alquimistas y los usaron como blanco de ataques satíricos. Dos famosos ejemplos antiguos son: Geoffrey Chaucer, The Canon's Yeoman's Prologue and Tale (c. 1380). El protagonista, un alquimista de camino a Canterbury, afirma que «lo enlosará entero de plata y oro». Ben Jonson, El alquimista (c. 1610). En esta obra de cinco actos, los personajes montan un taller de alquimia para estafar a la gente. En obras más recientes los alquimistas suelen ser presentados bajo una luz más romántica y mística y a menudo se hace poca distinción entre alquimia, magia y brujería: William Shakespeare, La tempestad (1611). Es su obra más influenciada por la alquimia, plagada de imaginería alquímica y con Próspero como mago arquetípico. Mary Shelley, Frankenstein (1818). Victor Frankenstein emplea tanto la alquimia como la ciencia moderna para crear el monstruo de Frankenstein. Vladímir Odóyevski, Salamandra (1828). Goethe, segunda parte de Fausto (1832). Wagner, el sirviente de Fausto, usa la alquimia para crear un homúnculo. Honoré de Balzac, La búsqueda de lo absoluto (1834) Antal Szerb, La leyenda de los Pendragon (1934). Gabriel García Márquez, Cien años de soledad (1967). Un alquimista llamado Melquíades se añade a la atmósfera surrealista de la novela (véase realismo mágico). Ian Watson, Los Jardines de las Delicias (1980). Un alquimista del futuro, ayudado por un poderoso extraterrestre, crea un planeta basado en la pintura de El Bosco El jardín de las delicias. En algunas de las novelas del Mundodisco de Terry Pratchett (1983-2015) aparece un gremio de alquimistas. Son conocidos por volar la sede de su gremio regularmente. Juegan un papel particularmente importante en Hombres de Armas (1993). John Crowley, Ægypt (1987-2007). Tetralogía de novelas de realismo mágico que tratan extensivamente del Dr. Dee, la alquimia, la astrología y la magia. Paulo Coelho, El alquimista (1988). El protagonista conoce un alquimista y aprende los principios de la alquimia. Umberto Eco, El péndulo de Foucault (1988). J. K. Rowling, Harry Potter y la piedra filosofal (1997). En ella aparece Nicolas Flamel como un personaje. Neal Stephenson, Ciclo barroco (2003-2004). Incluye alquimistas reales e imaginarios como Isaac Newton, de Duillier y Enoch Root. Hiromu Arakawa, Fullmetal Alchemist (2001-2010). La autora recrea un mundo paralelo gobernado por los principios de la alquimia. Véase también Otros artículos relacionados con la alquimia Alambique Alkahest, elixir de la vida, quintaesencia Teoría de los cuatro humores Dualismo Espagiria Goldwasser Grimorio Hermetismo Opus magnum Piedra filosofal Símbolo alquímico Transmutación Filosofías relacionadas Acupuntura, moxibustión, Ayurveda, homeopatía Antroposofía Astrología Escritura asémica Esoterismo, rosacrucismo, Iluminados de Baviera Kayakujutsu Nigromancia, magia Nueva era Taoísmo y los cinco elementos Tradición esotérica occidental Conexiones científicas Química • Física Método científico • Protociencia Historicismo Pseudociencia • Anticiencia Teorías científicas obsoletas Sustancias de los alquimistas Metales: oro • plata • plomo • cobre • estaño • hierro • mercurio • zinc • magnesio No metales: fósforo • azufre • arsénico • antimonio Ácidos: sulfúrico • muriático • nítrico • acético • fórmico • cítrico Compuestos: agua regia • amoníaco • alcohol • pólvora • vitriolo Referencias Bibliografía Bibliografía citada Bibliografía recomendada Enlaces externos The Alchemy Web Site (inglés, material en castellano) The Story of Alchemy and the Beginnings of Chemistry (inglés) en el Proyecto Gutenberg Azogue, revista electrónica dedicada al estudio histórico de la alquimia. El glosario alquímico: José Antonio Puche Riart Esoterismo Hermetismo Protociencia Arabismos
167_0
Astronomía infrarroja
La astronomía infrarroja es el estudio de las fuentes astronómicas a partir de la radiación infrarroja que emiten. Para ello se utiliza la espectroscopía infrarroja. Aunque en general se denomina infrarroja a la radiación electromagnética de longitud de onda más larga que la de la luz visible (400-700nm) y más corta que la de la radiación de terahertzios (100-1000μm) o las microondas (1-1000mm), en astronomía suele considerarse como infrarrojo el rango entre 1 y 1000 micrómetros. Este rango se subdivide a su vez en 3 o 4 intervalos: Infrarrojo cercano de 1 a 5μm aproximadamente Infrarrojo medio de 5 a 25-40μm Infrarrojo lejano de 25-40 a 200-350μm Submilimétrico de 200-350μm a 1mm (que algunos incluyen en el rango de las radioondas) Esta subdivisión tiene su razón de ser en los diferentes fenómenos físicos que son observables en cada uno de estos rangos, así como en las distintas técnicas de observación y tecnología de detectores empleados en cada uno de ellos. La atmósfera terrestre absorbe la radiación procedente de fuentes astronómicas en casi todo el espectro infrarrojo (de 1 a 1000 μm), exceptuando unas cuantas ventanas de transmisión atmosférica en las que transmite parcialmente, y además emite intensamente en el infrarrojo, por lo que la observación en el infrarrojo desde tierra requiere de técnicas que permitan eliminar la contribución de la atmósfera. Por esta razón, los mayores telescopios de radiación infrarroja se construyen en la cima de montañas muy elevadas, se instalan en aeroplanos especiales de cota elevada, en globos, o mejor aún, en satélites de la órbita terrestre. Debido a que la radiación infrarroja es menos absorbida o desviada por el polvo cósmico que la radiación de longitud de onda más corta, se puede observar en infrarrojo regiones que quedan ocultas por el polvo en luz visible o ultravioleta. Entre las regiones que son más efectivamente estudiadas en el infrarrojo se cuentan el centro galáctico y las regiones de formación estelar. Las observaciones infrarrojas revelan los estados fríos de la materia Los objetos sólidos en el espacio —desde el tamaño de un grano de polvo interestelar, de menos de una micra, hasta los planetas gigantes— tienen temperaturas que van de 3 a 3000 kelvins (K). La mayoría de la energía irradiada por objetos en este rango de temperaturas se encuentra en el infrarrojo. Las observaciones infrarrojas son por lo tanto de particular importancia en el estudio de medios a baja temperatura, como son las nubes interestelares con mucho polvo, donde las estrellas se están formando, así como las superficies heladas de los satélites planetarios y los asteroides. Las observaciones infrarrojas exploran el universo oculto Los granos de polvo cósmico oscurecen partes del Universo, bloqueando la luz que llega de regiones críticas. Este polvo se vuelve transparente en el cercano infrarrojo, donde los observadores pueden estudiar regiones ópticamente invisibles como el centro de nuestra Galaxia (y de otras galaxias) y densas nubes donde las estrellas y los planetas están naciendo. Para muchos objetos, incluyendo las estrellas en regiones con mucho polvo, los núcleos galácticos activos e incluso galaxias enteras, la radiación visible absorbida por el polvo y re-emitida en el infrarrojo constituye la mayor parte de su luminosidad. Las observaciones infrarrojas proporcionan acceso a muchas líneas espectroscópicas Las bandas de emisión y absorción de virtualmente todas las moléculas y los sólidos se encuentran en el infrarrojo, donde pueden usarse para estudiar las condiciones físicas y químicas de ambientes relativamente fríos. Muchos átomos e iones tienen líneas espectrales en el infrarrojo, que pueden usarse para estudiar las atmósferas estelares y el gas interestelar, explorando regiones que son demasiado frías o con demasiado polvo para ser estudiadas en luz visible. Las observaciones infrarrojas estudian el universo joven El corrimiento al rojo cósmico, que resulta de la expansión general de Universo, desplaza la energía inexorablemente hacia longitudes de onda largas, siendo el corrimiento proporcional a la distancia del objeto. Debido a la velocidad finita de la luz, los objetos con un gran corrimiento al rojo se observan según eran cuando el Universo era mucho más joven. Como resultado de la expansión del Universo, la mayoría de la radiación óptica y ultravioleta emitida por las estrellas, las galaxias y los cuásares desde el principio de los tiempos, ahora se encuentran en el infrarrojo. Cómo y cuándo los primeros objetos del Universo se formaron será esclarecido en gran parte gracias a las observaciones infrarrojas. Observatorios espaciales Debido a que la transmisión de la atmósfera en el infrarrojo está limitada a algunas ventanas, e incluso en ellas, la transparencia depende de la cantidad de vapor de agua por la que tiene que pasar la luz, los telescopios para observar en el infrarrojo se deben ubicar en lugares secos y a gran altura. Entre los lugares donde estas condiciones se cumplen se cuenta Mauna Kea, en Hawái, Estados Unidos, donde existe gran cantidad de telescopios y Paranal en la región de Antofagasta, Chile, sitio del VLT, Very Large Telescope de la ESO, Observatorio Europeo Austral. Aún mejor es usar observatorios espaciales, que pueden ver en regiones en que la atmósfera terrestre es completamente opaca. Entre las misiones pasadas más importantes se encuentran el IRAS y el Observatorio Espacial Infrarrojo. Hoy por hoy destacan la cámara NICMOS en el Telescopio Espacial Hubble, el Telescopio Espacial Spitzer, lanzado en 2003, y el Telescopio Espacial James Webb. En los próximos años, está previsto lanzar el Observatorio Espacial Herschel, centrado en el estudio del infrarrojo. La mayor parte del artículo fue obtenido de https://web.archive.org/web/20030829072815/http://sirtf.caltech.edu/espanol/ciencia/porque.shtml, dominio público Véase también Algunos observatorios del espectro infrarrojo: Herschel IRAS ISO Spitzer James Webb ASTRO-F IRAS Enlaces externos http://sirtf.caltech.edu/espanol/edu/ir/ Astronomía observacional
168_0
Astronomía ultravioleta
La astronomía por rayos ultravioletas utiliza una radiación electromagnética cuyas longitudes de onda van aproximadamente desde los 400 nm, el límite de la luz violeta, hasta los 15 nm, donde empiezan los rayos X. La radiación ultravioleta puede producirse artificialmente mediante lámparas de arco; la de origen natural proviene principalmente del Sol. La astronomía ultravioleta se ha practicado desde comienzos de la década de 1960, con la ayuda de detectores montados en satélites artificiales que proporcionan datos sobre objetos estelares inaccesibles desde la superficie de la Tierra. Uno de estos satélites es el Explorador Ultravioleta Internacional, lanzado en 1978. La atmósfera de la Tierra impide que la mayor parte de la radiación ultravioleta que proviene del espacio exterior llegue a su superficie. Sin embargo, la luz ultravioleta con una longitud de onda entre 410 y 300 nm, llamada 'región ultravioleta cercana' puede alcanzar la superficie terrestre a través de la atmósfera. La radiación ultravioleta con una longitud de onda entre 300 y 10 nm solamente se puede detectar mediante instrumentos de observación situados por encima de la atmósfera de la Tierra. Estos instrumentos de observación incluyen telescopios y satélites artificiales en el espacio. Un telescopio enviado a una altitud de 40 km, es decir, casi por encima de la capa de ozono de la atmósfera, puede observar la luz ultravioleta de hasta unos 200 nm. Para observar longitudes de onda menores de 200 nm, el dispositivo de observación tiene que estar colocado por encima de la atmósfera terrestre. Los telescopios situados en globos o pequeños cohetes son de gran utilidad, pero su tiempo de observación se ve limitado a unos cuantos minutos en el caso de un cohete y a algunas horas cuando se trata de un globo. Desde 1968 la mayor parte de las observaciones del ultravioleta medio y lejano se han efectuado desde telescopios situados en la órbita de la Tierra. (La región ultravioleta entre 300 y 200 nm se conoce como el 'ultravioleta medio'. El 'ultravioleta lejano' se encuentra entre 200 nm y aproximadamente 91 nm). Algunos de los satélites artificiales puestos en órbita para detectar el ultravioleta son: el Observatorio Astronómico en Órbita, el Observatorio Astronómico Copérnico, el Satélite Europeo TD-1, el Satélite Astronómico de los Países Bajos, el Observatorio Astronómico UIE, el telescopio espacial Hubble y, más recientemente, el Explorador de la Evolución de Galaxias (GALEX). El Explorador Ultravioleta Extremo exploró gran parte de la región ultravioleta desde 91 hasta 10 nm, llamada el ultravioleta extremo, zona difícil de detectar debido a la continua absorción de fotones causada por la ionización de los átomos de hidrógeno y helio interestelares. Astronomía observacional Radiación ultravioleta
175_0
Atlas
Atlas hace referencia a varios artículos: Astronomía Atlas (estrella), estrella de las Pléyades. Atlas (satélite), satélite de Saturno. Atlas (cohete), familia de cohetes estadounidenses, una de cuyas versiones lanzó a los astronautas del Mercury en órbita alrededor de la Tierra. ATLAS (telescopio), proyecto de telescopio espacial. Ciencias Atlas (hueso), nombre de la primera vértebra cervical. Atlas (matemáticas), conjunto de cartas de un espacio, de forma que a cada «región» de dicho espacio le corresponden unas coordenadas. Atlas (robot), robot humanoide bípedo desarrollado por la compañía estadounidense Boston Dynamics. Experimento ATLAS, uno de los cinco detectores de partículas del Gran Colisionador de Hadrones. Cine Atlas de geografía humana, película estrenada en el año 2007, dirigida por Azucena Rodríguez, basada en la novela homónima de Almudena Grandes. Atlas Shrugged: Part I. película estrenada en el año 2011, dirigida por Paul Johansson, basada en la novela La rebelión de Atlas de Ayn Rand. Cloud Atlas (en español El atles de las nubes), película estrenada el año 2012, dirigida por Tom Tykwer y las hermanas Lilly y Lana Wachowski basada la nòvela homónima de David Mitchell. Deporte Atlas Fútbol Club, equipo de fútbol de la ciudad de Guadalajara (México). Atlas Fútbol Club Femenil, equipo de fútbol femenino de la ciudad de Guadalajara (México). Club Atlético Atlas, institución deportiva de Argentina. Empresas Atlas (financiera), institución filial del Banco de Chile. Atlas Aircraft Corporation, empresa sudafricana fabricante de aviones. Agencia Atlas, agencia de noticias española, perteneciente al Grupo Mediaset España. Atlas Thompson Publicidad, agencia de publicidad colombiana, perteneciente al Grupo WPP. Geografía Atlas (cartografía), colección sistemática de mapas de diversa índole. Atlas (cordillera), cordillera que recorre, a lo largo de 2400 km, el noroeste de África. Atlas (Estados Unidos), lugar designado por el censo, ubicado en el condado de Northumberland, estado de Pensilvania (Estados Unidos). Informática Atlas, nombre anterior de ASP.NET AJAX. Atlas (computadora), una de las primeras supercomputadoras, construida en la Universidad de Mánchester. Literatura y publicaciones Atlas de geografía humana, novela publicada en 1998 de Almudena Grandes. Atlas de la carne (Hechos y cifras sobre los animales que comemos), publicación de la Fundación Heinrich Böll y Le Monde diplomatique sobre el consumo de la carne. El atlas de las nubes, novela de 2004, del escritor británico David Mitchell. La rebelión de Atlas, novela de 1957 de la filósofa y escritora estadounidense de origen ruso Ayn Rand. Atlas histórico de mitología mundial, serie de libros de los años 80' escritas por el mitólogo, escritor y profesor estadounidense Joseph Campbell. Atlas Histórico Mundial, libro atlas de 2004 escrita por el profesor, geólogo, investigador e historiador español Julio López-Davalillo Larrea. Mitología e historia Atlas (mitología); en la mitología griega, joven titán condenado por Zeus a cargar sobre sus hombros los pilares que mantenían la Tierra (Gea) separada de los cielos (Urano). Atlas (rey) o Atlante (citado por Platón en sus diálogos filosóficos Timeo y Critias); primer rey de la Atlántida, hijo de Poseidón y Clito. Atlas Farnesio, copia romana del siglo en mármol de una escultura helenística del titán Atlas soportando sobre sus espaldas un pesado globo celeste. Atlas (Mauritania), rey legendario de Mauritania, de quien se dice que inventó el primer globo terrestre. Música Atlas, canción de Coldplay. Atlas Eclipticalis, obra musical de John Cage. Atlas Genius, grupo musical australiano. Atlas Losing Grip, grupo musical sueco. Atlas, Rise!, canción de Metallica. Natacha Atlas, cantante belga. Además Agrupación de Trabajadores Latinoamericanos Sindicalizados (ATLAS) (1952-1962). Attacus atlas, mariposa de la familia Saturniidae. Atlas, la otra pasión, programa de televisión que emite Fox Sports desde el año 2006, producido y realizado en Buenos Aires (Argentina). Charles Atlas, inventor de un método de musculación del mismo nombre. Red Atlas, organización sin fines de lucro. Red ATLAS, red policial europea. Enlaces externos
178_0
Agricultura ecológica
La agricultura ecológica, orgánica o biológica es un sistema de cultivo de una explotación agrícola basada en la utilización óptima de los recursos naturales, sin emplear productos químicos sintéticos u organismos genéticamente modificados (OGMs) en ninguna parte del proceso (ni como abono ni para combatir las plagas). De esta forma, se logra obtener alimentos orgánicos a la vez que se conserva la fertilidad de la tierra y se respeta el medio ambiente. Todo ello de manera sostenible, equilibrada y mantenible. Los principales objetivos de la agricultura orgánica son la obtención de alimentos saludables, de mayor calidad nutritiva, sin la presencia de sustancias de síntesis química y obtenidos mediante procedimientos sostenibles. Este tipo de agricultura es un sistema global de gestión de la producción, que incrementa y realza la salud de los agrosistemas, inclusive la diversidad biológica, los ciclos biológicos y la actividad biológica del suelo. Esto se consigue aplicando, siempre que sea posible, métodos agronómicos, biológicos y mecánicos, en contraposición a la utilización de materiales sintéticos para desempeñar cualquier función específica del sistema. Esta forma de producción, además de contemplar el aspecto ecológico, incluye en su filosofía el mejoramiento de las condiciones de vida de sus practicantes, de tal forma que su objetivo se apega a lograr la sostenibilidad integral del sistema de producción agrícola; o sea, constituirse como un agrosistema social, ecológico y económicamente sostenible. La agricultura natural, la agricultura indígena, la agricultura familiar, la agricultura campesina, son tipos de agricultura natural que buscan el equilibrio con el ecosistema, son sistemas agrícolas sostenibles, que se han mantenido a lo largo del tiempo en distintas regiones del mundo buscando satisfacer la demanda de alimento natural y nutritivo a las personas y los animales, de manera que el agroecosistema mantenga el equilibrio.La agricultura biodinámica, y la permacultura, comparten algunos de sus principios y métodos, pero son más recientes. En esta práctica se puede tomar en cuenta los policultivos que a diferencia de los monocultivos provocan la erosión del suelo y evitan que se aprovechen los recursos del suelo. Tipos de cultivos Uno de los cultivos más utilizados por su practicidad es el bancal. Este es un sistema básico de la agricultura biodinámica, establecida por Rudolf Steiner en 1924. Al emplear este método se hacen divisiones en el terreno de aproximadamente 1m (metro) de ancho y el largo que se desee. Al no dejar más de 1m de ancho tiene la ventaja de que se puede trabajar el bancal sin tener que pisarlo, y así no se apelmaza la tierra de cultivo. Es conveniente por tanto dejar entre bancal y bancal un paso adecuado. Han de estar en función de la adaptación al medio, su resistencia/tolerancia a las plagas y enfermedades y de su rentabilidad económica. En la medida de lo posible se debe de mantener una diversidad biológica, que se consigue alternando variedades distintas. La biodiversidad viene dada por la integración de componentes a distintos niveles: edáfico (lombrices, bacterias beneficiosas, hongos, nódulos de Rhizobium); especies silvestres (un 30% de plantas adventicias) y con la implementación de la rotación de cultivos. Esta biodiversidad dentro del ecosistema agrario proporciona estabilidad, resistencia y sostenibilidad frente a sequías y plagas, etc. Los agricultores pueden utilizar semillas cuyo origen pueden ser de cultivo convencional, debido a la dificultad para encontrar semillas producidas con criterios ecológicos. Las redes de semillas, cada vez más extensas, se ocupan de recuperar variedades de semillas autóctonas, bien adaptadas al entorno y sin modificaciones genéticas. Control de plagas y enfermedades El cultivo ecológico debe estar basado en métodos preventivos, potenciando el buen desarrollo de las plantas y por tanto su resistencia natural a plagas y enfermedades. Debe potenciarse al máximo la prevención mediante unas adecuadas prácticas de cultivo que aseguren el buen desarrollo de las plantas y, por tanto, que estas sean más resistentes. Las especies autóctonas y un abonado adecuado hacen las plantas más resistentes. Evitando el cultivo de una única especie, al diversificar las especies plantadas se dificulta la aparición de plagas, utilizando para ello una adecuada rotación y asociación en los campos. Es aconsejable promover el desarrollo de la fauna auxiliar autóctona, mediante el uso de setos y la suelta de insectos útiles (parásitos o depredadores), como los parasitoides del pulgón, Toxoptera aurantii. En última instancia se podrán utilizar diferentes productos de origen natural, como las piretrinas que se obtienen de las flores secas del crisantemo o el Bacillus thuringiensis que son unas bacterias aerobias que producen una toxina insecticida. Feromonas, atrayentes y repelentes El extracto de ajo es biodegradable y sirve para repeler la mosca blanca, los pájaros y distintos tipos de chupadores. Se basa en un enmascarador del olor del alimento, de las feromonas (evita la reproducción de las plagas) y en los pájaros los desconcierta porque el ajo es irritante para los pájaros. No evita que en períodos de mucha hambre este método pueda ser ineficaz para los pájaros, se pueden usar otros métodos como el de los ultrasonidos o el de las explosiones de gas con detectores de movimiento. El extracto de ajo puede enmascarar el olor de las trampas de feromonas de algunas plagas y puede hacerlas más ineficaces. Fertilización La fertilización del terreno dedicado a la agricultura ecológica es uno de los pilares de esta forma de cultivo. Es muy práctico que el fertilizante sea de producción propia, uno de los más utilizados es la producción de compost. La materia orgánica es la base de la fertilización, aunque también se pueden utilizar como fertilizantes el abonado en verde que consiste en cultivar y enterrar una planta, para que al descomponerse se convierta en abono, especialmente utilizando leguminosas, estas enriquecen el suelo especialmente en nitrógeno gracias a bacterias que viven en sus raíces y que fijan el nitrógeno atmosférico, y que la planta al ser enterrada cede al suelo en forma de abono. Los fertilizantes nitrogenados tienen un rol central, particularmente en cultivos estratégicos para la sustentabilidad agrícola, como el trigo y el maíz. Los abonos minerales que se pueden utilizar son los procedentes de fuentes naturales que hayan sido extraídos por procesos físicos. Mantenimiento del suelo Biológico En el suelo hay de forma natural una infinidad de organismos vivos que efectúan un «laboreo» continuado: las raíces al explorar en busca de agua y nutrientes; las lombrices, insectos y roedores, con sus galerías; otros organismos con sus exudaciones y residuos que ayudan a unir las partículas de arcilla y humus. Tampoco hay que despreciar la gran cantidad de materia orgánica que aportan estos organismos así como la conversión de la materia orgánica en material asimilable por las plantas. Diversas experiencias realizadas han demostrado que el trabajo biológico posee ventajas sobre el mecánico. Como son: No apelmaza el suelo al pasar por el suelo, lo que comúnmente ocurre al trabajar la tierra con maquinaria y que obliga a realizar cada cierto tiempo un trabajo más profundo. Al cortar la hierba y dejarla como mantillo se producen varias mejoras, por un lado el sol no seca el terreno conservando la humedad y por otro lado sirve de protección a los microorganismos y demás organismos. Por otro lado, las plantas adventicias, o también «malas hierbas», no son sistemáticamente combatidas. Se les atribuye la protección del suelo no cultivado y de organismos como insectos depredadores que pueden ayudar a combatir plagas. También pueden ayudar a mejorar la estructura del suelo, cuando vuelve a él una vez secas o cortadas. Para evitar que el campo se llene de adventicias, se realizan rotaciones de cultivo con falsas siembras y programas de abonado equilibrado. Mecánico La principal condición que debe cumplir un apero, es no voltear el suelo en profundidad para no alterar el orden natural del suelo, trabajando con tempero y no abusando de los mismos, evitando en parte de esa forma los efectos indeseables del laboreo mecánico como la mineralización del suelo y la compactación del mismo por el peso de la maquinaria. Atendiendo a razones prácticas e históricas, las razones para utilizar el laboreo mecánico son: Realizar más rápido los trabajos en el campo, tanto de siembra, recolección como los tratamientos. Eliminar la competencia que provocan las adventicias. El transporte de las producciones desde el mismo campo a su destino. Rotación de cultivos Consiste en alternar plantas de diferentes familias y con necesidades nutritivas diferentes en un mismo lugar durante distintos ciclos, evitando que el suelo se agote y que las enfermedades que afectan a un tipo de plantas se perpetúe en el tiempo. De esta forma se aprovecha mejor el abonado (al utilizar plantas con necesidades nutritivas distintas y con sistemas radiculares diferentes), se controlan mejor las malas hierbas y disminuyen los problemas con las plagas y las enfermedades, (al no encontrar un huésped tienen más dificultad para sobrevivir). También se debe introducir regularmente en la rotación una leguminosa y alternar plantas que requieren una fuerte cantidad de materia orgánica, y la soportan parcialmente o incluso sin fermentar (papa, calabaza, espárragos, etc.), con otras menos exigentes o que requieren materia orgánica muy descompuesta (acelga, cebolla, guisantes, etc.). En esta práctica se debe evitar que se sucedan plantas de tipo vegetativo diferente pero que pertenezcan a la misma familia botánica, por ejemplo: espinaca y remolacha = quenopodiáceas, apio y zanahoria = umbelíferas, papa y tomate = solanáceas. Ejemplo de rotación de cultivos Se han marcado en color según el resultado: Se indica en literal el efecto no deseado: Insectos: Tipulidae, Elateridae, Lepidoptera Enfermedades: básicamente hongos Estructura: significa descomposición estructural Calidad: pérdida de calidad Tarde: retraso Otros se indican directamente en el recuadro Asociación de cultivos La asociación de cultivos consiste en cultivar en la misma parcela varias especies distintas, de forma que se obtenga una sinergia entre ellas. Esta práctica muy extendida en el cultivo ecológico, puede obtener diversos tipos de mejoras. Por un lado podemos poner dos especies que se complementan en su sistema radicular (uno es profundo (el melón) y el otro superficial (la lechuga), o una planta defiende a la otra con su aroma. Historia Existen muchos modelos de agricultura ecológica, que ofrecen alternativas tecnológicas para los productores al ejercer una práctica armoniosa con la dinámica de los ecosistemas; estos modelos provienen de la fusión y apropiación de ideas de varias escuelas o corrientes que comparten los mismos objetivos generales; presentamos a continuación las corrientes principales que se han referenciado a lo largo del siglo pasado, época en donde se escribió e investigó con mayor propiedad sobre estos temas. Es importante notar que la agricultura ecológica comenzó a partir de las reformas agrarias que se produjeron en Alemania a finales del sigloXIX y, además, por el advenimiento y efecto de lo que la llamada Revolución Industrial generó en el sector agropecuario. Agricultura biodinámica La agricultura biológico-dinámica, creada en 1924 por Rudolf Steiner y denominada agricultura biodinámica se basa en los fundamentos y propuestas de estudio vinculados a la vertiente filosófica antroposofía, cuyo autor es el mismo Steiner. A principios del sigloXX, un grupo de agricultores que notaban la degeneración de la fertilidad de la tierra y de la calidad nutritiva de los alimentos, preguntaron a Rudolf Steiner qué podían hacer para remediar esta situación; como consecuencia, él organizó unas conferencias de trabajo en Koberwitz, al este de Breslavia, en Alemania, «abriendo el camino para un conocimiento de lo viviente, de lo anímico y de lo espiritual en la naturaleza, y con ello la posibilidad de conducir el trabajo con la tierra y sus criaturas hacia un “nuevo ordenamiento” donde lo natural se halla sobreelevado e integrado en lo humano». Llevando este concepto a términos más terrenos, lo que distingue a la corriente Biodinámica es el uso de los preparados dinamizados, a manera de una homeopatía agrícola; además de esto, se desarrolla en esta escuela la idea de que las unidades rurales son unos organismos agrícolas que se hallan sometidos a la influencia de factores cósmicos complementarios, diferentes a la influencia de la luz, las estaciones y el clima en general. «Desde el punto de vista conceptual, la Agricultura Biodinámica promueve una agricultura que reconoce y utiliza las fuerzas energéticas de todos los seres vivos y no se restringe a la visión materialista predominante de lo que en esa época se conoció como “la nueva agricultura científica”». Agricultura biológica-ecológica Otra corriente de este tipo de agricultura es el método bioorgánico o biológico-ecológico, más científico, creado por los suízos Hans Müller, su esposa María y por el médico alemán Hans-Peter Rusch, desarrollados a partir de 1951. Agricultura orgánica Esta corriente se inició en Inglaterra, en la década de 1930, por los agrónomos Lady Eve Balfour y Sir Albert Howard; Howard, determinó después de su llegada a la India, que las limitaciones locales no permiten adoptar el sistema productivo basado en las experiencias occidentales, por lo que concluyó que era esencial observar los procesos productivos de la naturaleza y aprender de ella las lecciones necesarias para favorecer la producción de alimentos. Su libro Un Testamento Agrícola recopila sus observaciones estableciendo conceptos fundamentales para la agricultura orgánica, tales como la protección del suelo, el uso de coberturas permanentes, la producción de compost utilizando el sistema «Indore» (métodos pioneros de compostaje controlado), la idea de manejar mejor la salud de la planta en suelos saludables, la importancia de la investigación en fincas, y el uso racional de recursos locales entre otras. En 1943, Lady Eve Balfour publicó su libro The Living Soil, en el que promueve la idea de que la salud del suelo y la salud del hombre son inseparables. Su trabajo llevó a formar en 1946, la Soil Association como un ente de investigación e información sobre prácticas orgánicas de manejo de fincas y suelos. Desde entonces esta asociación se ha convertido en líder mundial en el establecimiento de normas y capacitación en agricultura orgánica. Los sistemas de producción orgánica, llamada «biológica» por los franceses e italianos y «ecológica» por los alemanes, se iniciaron como movimiento alternativo con mayor fuerza en los años 1960 en Europa y Estados Unidos. Tanto las ideas de Howard como las de Balfour fueron promulgadas en Estados Unidos por Jerome Irving Rodale, quien en 1942 publica su revista Organic Farming and Gardening, con un éxito rotundo llegando a vender más de dos millones de copias en 1980. Gracias a la popularidad de esta revista, se funda el Instituto Rodale que hoy es reconocido internacionalmente por su investigación y capacitación en agricultura orgánica. Esta denominación de «agricultura orgánica» ha sido la más difundida a nivel mundial y por ella se ha llegado a conformar los «Principios Básicos» de la misma, estableciendo en 1972 la «Federación Internacional de Movimientos de Agricultura Orgánica» (IFOAM por sus siglas en inglés, de International Federation of Organic Agricultural Movements). Soil Association, creada en 1946, es una organización dedicada a los cultivos ecológicos, la cual, a mediados de la década de 1980 vio crecer su número de empleados, sobre todo a partir de 1995 con el Plan de Ayuda Orgánica del gobierno para los agricultores a través del difícil proceso de conversión de 2 a 5 años, gracias a que una serie de supermercados comenzaron a ofrecer alimentos orgánicos y esto trajo una nueva credibilidad al movimiento. Sin embargo, el número de agricultores orgánicos sigue siendo pequeño. El número de empleados de la Soil Association entonces creció rápidamente; la tierra orgánica en el Reino Unido representa en la primera década del sigloXXI casi el 4% de las tierras agrícolas. Los agricultores orgánicos reciben ahora el apoyo en curso en el reconocimiento de los beneficios ambientales que prestan y esto está animando a más agricultores para tratar sus tierras de forma orgánica. Agricultura natural de no intervención Propuesta por el biólogo y monje Zen budista japonés Masanobu Fukuoka, desde la década de 1950. Este tipo de agricultura no necesita maquinaria ni productos químicos, trabaja con muy poca deshierba y tampoco necesita labrar el suelo ni abonarlo. La filosofía de Fukuoka se basa en «practicar la agricultura cooperando con la naturaleza, en lugar de tratar de mejorarla, conquistándola». En su libro La Revolución de una brizna de paja y la senda natural del cultivo, cuenta cómo opera su técnica para generar condiciones favorables para los cultivos, luego de lo cual, se interfiere tan poco como sea posible sobre las comunidades animales y vegetales de sus campos. Por otro lado, Fukuoka unió su técnica agrícola con una filosofía cuya esencia expone el hecho de que sanar la tierra y purificar el espíritu humano son un mismo proceso. Propone para ello un tipo de vida y agricultura que permita este proceso. Esta filosofía se conoce también como «filosofía del no hacer». Parte del supuesto de una pregunta: ¿Por qué preguntarnos qué pasaría si hiciéramos esto en vez de preguntarnos qué pasaría si no se hiciese? Fukuoka llegó así a conclusiones que generan los cuatro principios de la agricultura natural: no laboreo, no arar ni voltear el suelo; no utilizar abonos químicos, ni compost preparado; no desherbar mediante cultivo o herbicidas; y, no utilizar productos químicos. Con base en esta corriente, Jean Marie Roger en 1958 expuso a la comunidad agrícola su modelo de agricultura natural, que difiere del modelo de Fukuoka en que promulga más la biodiversidad que la no intervención. Agricultura biológica o agrobiología Es el nombre usado en Francia y Portugal desde la década de 1960 para denominar el método difundido por los agrónomos Francis Chaboussou, Raul Lemaire y Claude Aubert. Se destaca por la importancia que se le da al control biológico, el manejo integrado de plagas y enfermedades y por la teoría de la trofobiosis. La idea del manejo integrado de plagas es, primero, buscar en cada insecto plaga su punto débil y atacarlo allí, buscar los enemigos de los insectos plagas y utilizarlos, llevándolos al lote; además de esto, se puede usar más de un método para el control de las plagas, lo que provee el mejor control y de esta manera, si un método de control por alguna razón falla, los otros métodos continuarán protegiendo al cultivo, convirtiéndolo realmente en un método integrado. Por otra parte, la teoría de la trofobiosis presentada por Francis Chaboussou sostiene que la vulnerabilidad de las plantas a las plagas es cuestión de equilibrio nutricional o deintoxicación por venenos. «Un cultivo bien nutrido es más resistente al ataque de plagas y enfermedades lo que favorecerá a hacer menos aplicaciones de plaguicidas y eso a su vez conservar mejor el ecosistema del suelo». Cuando se unen estos tres conceptos, se genera la idea de una agricultura sostenible puesto que no se puede concebir la nutrición como un componente aislado, sino como un manejo integrado de cultivo ya que los factores nutricionales (como contenido de materia orgánica, fórmulas y formas de fertilización y manejo de suelo, por citar algunos) y no nutricionales (entre los que están el control de plagas y enfermedades, la genética varietal, las condiciones ambientales, el manejo de cultivo) están interrelacionados e interactúan. La agricultura biológica o agrobiología, asegura que en la medida que se manejen bien los factores no nutricionales se facilita la obtención de calidad, productividad, se disminuye la contaminación y se bajan costos. Un ejemplo citado por Chaboussou era que cuando existe una aplicación muy concentrada de fertilizantes químicos, se elimina un porcentaje de microorganismos benéficos, como algunas especies de Bacillus o Trichoderma; como consecuencia, se pueden desarrollar enfermedades del suelo. Este fenómeno simple, puede traer consigo aplicaciones extra de agroquímicos para controlar pudriciones radiculares; esto afectará a hongos de micorrizas y otros microorganismos que afectan el proceso de mineralización de ciertos elementos afectando en forma negativa la nutrición de las plantas. Agricultura mesiánica En 1983, Mokichi Okada, filósofo japonés, realizó estudios e investigaciones y desarrolló, en Japón, una corriente similar a la agricultura natural, que denominó agricultura mesiánica, que se inició alertando a las personas del peligro de consumir alimentos contaminados, por el uso abusivo de agrotóxicos. Okada estaba seguro de que llegaría un día en el que habría alimentos en exceso, los que no podrían ser consumidos debido al alto índice de productos químicos contenidos en ellos. Según él, los alimentos naturales, además de proporcionar al ser humano una vida más saludable, lo tornan más productivo y capacitado para contribuir de manera más significativa al seguimiento de las leyes de la naturaleza, produciendo alimentos, que además de conservar su verdadero sabor, no agredan ni destruyan el medio ambiente. El método de la agricultura mesiánica corresponde a los principios de la propia naturaleza tomándola como modelo y obedeciendo sus leyes. Proyectando la preservación del medio ambiente y la calidad de vida del hombre, la agricultura promulgada por Mokiti Okada, tiene como objetivos, el producir alimentos que incrementen cada vez más la salud del hombre; ser económica y espiritualmente ventajosa, tanto para el productor como para el consumidor; ser practicada por cualquier persona fácilmente y, además de esto, tener carácter permanente; respetar la naturaleza y conservarla; y por último, garantizar la alimentación para toda la humanidad, independientemente de su crecimiento demográfico. Existen otras corrientes que son importantes por tomar conceptos de estas escuelas y mezclarlos siguiendo los mismos principios orgánicos o biológicos, pero se encuentran desde el punto de vista técnico, en las corrientes descritas anteriormente, con denominaciones como ecológica, regenerativa o sostenible, terminología de carácter más amplio, que busca establecer un puente entre el diálogo científico y la transición tecnológica, conceptos que unidos deberán ser aplicados a la agricultura. Política En algunos países, la agricultura ecológica está también definida por el Derecho. Así en la Unión Europea (UE), la agricultura ecológica está regulada a partir del 1 de enero de 2009 por el Reglamento (CE) 834/2007 del Consejo de 28 de junio de 2007 sobre producción y etiquetado de los productos ecológicos, que deroga el antiguo Reglamento (CEE) 2092/91. En él se especifica claramente las técnicas autorizadas en este tipo de cultivo. Los productos ecológicos deben llevar obligatoriamente el sello oficial de la agricultura ecológica de la Unión Europea, permitiéndose añadir, además, los logotipos del país o región de origen. La demanda de alimentos ecológicos aumenta cada año. Alrededor de tres cuartas partes de los alimentos que actualmente se venden en los supermercados son de este tipo. Sin embargo, en los últimos años, la cantidad de alimentos orgánicos que se venden a través de los mercados de agricultores y tiendas independientes ha estado creciendo rápidamente a medida que más personas se preocupan acerca de la frescura de los alimentos. A veces, un producto producido con elementos ecológicos no se puede etiquetar como tal si el proceso de producción no tiene «certificación ecológica». En esos casos solo se hace notar el origen ecológico de los ingredientes. Beneficios, perjuicios y controversias Los estudios hasta comienzos de la segunda década del sigloXXI aún no habían demostrado que el consumo de productos biológicos repercutiera en un mayor beneficio sobre la salud. Una importante revisión de estudios científicos certificada por la Food Standard Agency publicada en el American Journal of Clinical Nutrition ha llegado a la conclusión de que no existen diferencias nutricionales significativas para la salud entre alimentos «bio» y alimentos clásicos más allá de su contenido en pesticidas. Sin embargo, no existen suficientes estudios de calidad para poder concluir los efectos a largo plazo sobre la salud de los consumidores. Controversias ¿Lo «natural» es saludable, seguro, beneficioso o inocuo? Hablando de la publicidad de los alimentos, con frecuencia se dice que «lo “natural” es saludable, seguro, beneficioso o inocuo». Según algunos autores, simplemente no es cierto. El adjetivo «natural» acompaña hoy, con ligereza, a demasiados productos destinados a la alimentación y la cosmética. El caso es que ya desde hace unos cuantos años, la legislación española prohíbe el uso del término «natural» en la publicidad; lo hace literalmente de esta forma: Artículo 4. Prohibiciones y limitaciones de la publicidad con pretendida finalidad sanitaria... Punto 13: Que utilicen el término «natural» como característica vinculada a pretendidos efectos preventivos o terapéuticos. En resumen, está justificado desconfiar de todo producto que en su promoción o publicidad use la palabra «natural». La lectura detallada de este artículo 4 del BOE 1907/1996 da idea de qué cantidad de veces se vulnera la legalidad en la publicidad de productos como complementos alimenticios, de cosmética y una infinidad de otros productos destinados a «mejorar» la salud o al menos nuestra autopercepción de la misma. «La agricultura nunca es ecológica» Se trata de una «enmienda a la totalidad». Según el autor (J. M. Mulet) el mensaje ecologista ha calado en la opinión pública y está siendo usado para vender más, simplemente. Según él, la agricultura ecológica es «moda y postureo», que siempre —desde hace siglos— se ha usado la manipulación y selección genética en la agricultura y que el futuro de la humanidad no será posible sin los alimentos transgénicos. Superficie Alguna vez se cita el mayor consumo de superficie agraria, junto a su correspondiente pérdida de hábitats naturales, como uno de los principales perjuicios de la agricultura ecológica, lo que queda desmentido por el mayor respeto que tiene la agricultura ecológica hacia los hábitats, calificados como "malas hierbas" y eliminados por el agroextractivismo. Beneficios Entre los beneficios ambientales más comúnmente mencionados suelen citarse la conservación de los suelos, su productividad y su biota (microorganismos), la prevención de la eutrofización de las aguas superficiales y la contaminación de las aguas subterráneas, la reducción del consumo de energía así como de los gases de efecto invernadero o el aumento de la biodiversidad, entre otros. Debido a la dificultad de estudio, cada uno de estos potenciales efectos beneficiosos presentan, en la actualidad, diferentes grados de consenso científico. Además, se suelen mencionar otros beneficios para los pequeños productores locales, que suelen ser típicamente los principales productores de la agricultura biológica, y sobre la salud a la hora de evitar la manipulación de productos químicos peligrosos por parte de los agricultores. Véase también Referencias Bibliografía Altieri, M.A. 1987. Agroecology: the scientific basis of alternative agriculture . Boulder: Westview Press. Altieri, M.A. 1992. Agroecological foundations of alternative agriculture in California . Agriculture, Ecosystems and Environment 39: 23-53. Sustainable Agroecosystem Management: Integrating Ecology, Economics and Society (Advances in Agroecology) , editado por Patrick J. Bohlen y Gar House 2009. ISBN 978-1-4200-5214-5 (CRC Press). Agroforestry in Sustainable Agricultural Systems (Advances in Agroecology) . Louise E. Buck, James P. Lassoie, and Erick C.M. Fernandes (pasta dura - 1 de octubre de 1998). Buttel, F.H. and M.E. Gertler 1982. Agricultural structure, agricultural policy and environmental quality . Agriculture and Environment 7: 101-119. Curso de asesores en producción ecológica del CAAE. 2009. Carrol, C. R., J.H. Vandermeer and P.M. Rosset. 1990. Agroecology . McGraw Hill Publishing Company, Nueva York. Guía de la agricultura ecológica en la Comunidad valenciana. CERAI 1999. Biodiversity in Agroecosystems (Advances in Agroecology) , editado por Wanda W. Collins, Calvin O. Qualset 1998. ISBN 978-1-56670-290-4 (CRC Press). Interactions Between Agroecosystems and Rural Communities (Advances in Agroecology) . Cornelia Flora (Pasta dura - 5 de febrero de 2001) Multi-Scale Integrated Analysis of Agroecosystems (Advances in Agroecology) . Mario Giampietro 2003. ISBN 978-0-8493-1067-6 (CRC Press) Integrated Assessment of Health and Sustainability of Agroecosystems (Advances in Agroecology) . Thomas Gitau, Margaret W. Gitau, David Waltner-ToewsClive A. Edwards. Junio de 2008. ISBN 978-1-4200-7277-8 (CRC Press). Agroecosystem Sustainability: Developing Practical Strategies (Advances in Agroecology) . Stephen R. Gliessman (pasta dura, 25 de septiembre de 2000). Soil Organic Matter in Sustainable Agriculture (Advances in Agroecology) . Fred Magdoff y Ray R. Weil (pasta dura - 27 de mayo de 2004). Paoletti, M.G., B.R. Stinner, and G.G. Lorenzoni, ed. Agricultural Ecology and Environment . Nueva York: Elsevier Science Publisher B.V., 1989. Robertson, Philip, and Scott M Swinton. Reconciling agricultural productivity and environmental integrity: a grand challenge for agriculture . Frontiers in Ecology and the Environment 3.1 (2005): 38-46. Landscape Ecology in Agroecosystems Management (Advances in Agroecology) . Lech Rysza kowski (pasta dura - 27 de diciembre de 2001). Structure and Function in Agroecosystem Design and Management (Advances in Agroecology) , editado por Masae Shiyomi, Hiroshi Koizumi 2001. ISBN 978-0-8493-0904-5 (CRC Press). Soil Tillage in Agroecosystems (Advances in Agroecology) , editado por Adel El Titi 2002. ISBN 978-0-8493-1228-1 (CRC Press). Vandermeer, J. 1995. The ecological basis of alternative agriculture . Ann. Rev. Ecol. Syst. 26: 201-224. Tropical Agroecosystems (Advances in Agroecology) , editado por John H. Vandermeer 2002. ISBN 978-0-8493-1581-7 (CRC Press). Wojtkowski, P.A. 2002. Agroecological perspectives in agronomy, forestry and agroforestry . Science Publishers Inc., Enfield, NH. Modelo ecológico colombiano: Agricultura sensitiva. "Cultivo Biointensivo de Alimentos*, *más alimentos en menos espacio (Ten Speed Press) escrito por John Jeavons, 6.ª edición, 2004, 261pp. Enlaces externos Página oficial de la Unión Europea sobre agricultura ecológica. Sitio web de la Sociedad Española de Agricultura Ecológica (SEAE). Sitio web sobre SPG de IFOAM Agrarismo Agricultura ecológica Economía ambiental
189_0
Botánica
La botánica (del griego βοτάνη, 'hierba') o fitología (del griego φυτόν, 'planta' y λόγος, 'tratado') es la rama de la biología que estudia las plantas bajo todos sus aspectos, incluyendo la descripción, clasificación, distribución, identificación, estudio de la reproducción, fisiología, morfología, relaciones recíprocas, relaciones con los otros seres vivos y efectos provocados sobre el medio en el que se encuentran. La botánica estudia las plantas en sentido amplio, abarcando las categorías taxonómicas de las plantas sin flores (criptógamas), las plantas sin flores y sin vasos (briofitas), las plantas sin flores y con vasos (pteridofitas), las plantas con flores (espermatofitas), las plantas con flores y sin fruto (gimnospermas) y las plantas con flores y con fruto (angiospermas), dentro de la clasificación clásica de los organismos vegetales. No obstante, en términos históricos, el objeto de estudio de la botánica no se ha restringido estrictamente al Reino Plantae, sino que ha abarcado un grupo de organismos lejanamente emparentados entre sí, esto es, las cianobacterias, los hongos, las algas y las plantas, los que casi no poseen ningún carácter en común salvo la presencia de cloroplastos (a excepción de los hongos y cianobacterias) o el no poseer capacidad de desplazamiento. En el campo de la botánica hay que distinguir entre la botánica pura, cuyo objeto es ampliar el conocimiento de la naturaleza, y la botánica aplicada, cuyas investigaciones están al servicio de la tecnología agraria, forestal y farmacéutica. Su conocimiento afecta a muchos aspectos de nuestra vida y por tanto es una disciplina estudiada por biólogos y ambientólogos, pero también por farmacéuticos, ingenieros agrónomos, ingenieros forestales, entre otros. La botánica cubre una amplia gama de contenidos, que incluyen aspectos específicos propios de los vegetales, así como de las disciplinas biológicas que se ocupan de la composición química (fitoquímica), de la organización celular y tisular (histología vegetal), del metabolismo y el funcionamiento orgánico (fisiología vegetal), del crecimiento y el desarrollo, de la morfología (fitografía), de la reproducción, de la herencia (genética vegetal), de las enfermedades (fitopatología), de las adaptaciones al ambiente (ecología), de la distribución geográfica (fitogeografía o geobotánica), de los fósiles (paleobotánica) y de la evolución. Los organismos que estudia la botánica La idea de que la naturaleza puede ser dividida en tres reinos (mineral, vegetal y animal) fue propuesta por N. Lemery (1675) y popularizada por Linneo en el . Karl Linné, a finales del , introdujo el actual sistema de clasificación. Este incluye los conocimientos sobre las diversas especies vegetales dentro de un sistema más amplio, ofreciendo una versión sintética y enriquecedora. No en vano se ha dicho que el sistema de clasificación de Linneo prefigura lo que después serían las teorías evolutivas. A pesar de que con posterioridad fueron determinados como reinos separados para los hongos (en 1783), protozoarios (en 1858) y bacterias (en 1925) la concepción del de que solo existían dos reinos de organismos dominó la biología por tres siglos. El descubrimiento de los protozoarios en 1675, y de las bacterias en 1683, ambos realizados por Leeuwenhoek, finalmente comenzó a minar el sistema de dos reinos. No obstante, un acuerdo general entre los científicos acerca de que el mundo viviente debería ser clasificado en al menos cinco reinos, solo fue logrado luego de los descubrimientos realizados por la microscopía electrónica en la segunda mitad del . Tales hallazgos confirmaron que existían diferencias fundamentales entre las bacterias y los eucariotas y, además, revelaron la tremenda diversidad ultraestructural de los protistas. La aceptación generalizada de la necesidad de utilizar varios reinos para incluir a todos los seres vivos también debe mucho a la síntesis sistemática de Herbert Copeland (1956) y a los influyentes trabajos de Roger Y. Stanier (1961-1962) y Robert H. Whittaker (1969). En el sistema de seis reinos, propuesto por Thomas Cavalier-Smith en 1983 y modificado en 1998, las bacterias son tratadas en un único reino (Bacteria) y los eucariotas se dividen en 5 reinos: protozoarios (Protozoa), animales (Animalia), hongos (Fungi), plantas (Plantae) y Chromista (algas cuyos cloroplastos contienen clorofilas a y c, así como otros organismos sin clorofila relacionados con ellas). La Nomenclatura de estos tres últimos reinos, clásico objeto de estudio de la botánica, está sujeta a las reglas y recomendaciones del Código Internacional de Nomenclatura Botánica. Divisiones de la botánica Las plantas pueden estudiarse desde variados puntos de vista. Así, pueden diferenciarse distintas líneas de trabajo de acuerdo con los niveles de organización que se estudien: desde las moléculas y las células, pasando por los tejidos y los órganos, hasta los individuos, las poblaciones y las comunidades vegetales. Otras posibilidades se refieren al estudio de las plantas que vivieron en épocas geológicas pasadas o al de las que viven en la actualidad, al examen de los distintos grupos sistemáticos y a la investigación de cómo pueden ser utilizados los vegetales por el ser humano. Una de las metas más importantes para la botánica, es que junto a la biotecnología e ingeniería genética puedan llegar a crear vida. Y cruzar dicha frontera para los humanos. En general, todas esas direcciones de trabajo se basan en el análisis comparativo de los fenómenos particulares y de su variabilidad, para llegar a una generalización y al reconocimiento de las relaciones regulares que unen dichos fenómenos entre sí. Siempre deben asociarse los métodos estático y dinámico: por un lado el reconocimiento y la interpretación de las estructuras y formas y, por el otro, el análisis de los procesos vitales, de funciones y de fenómenos de desarrollo. El fin último de ambos métodos debe ser en todo caso la comprensión de las formas y de las funciones en su dependencia recíproca y en su evolución. Los distintos puntos de vista descritos y el empleo de diferentes métodos de trabajo han conducido a que dentro de la botánica se hayan desarrollado numerosas disciplinas. En primer lugar, se puede citar a la Morfología, la cual, en sentido amplio, es la teoría general de la estructura y forma de las plantas, e incluye la Citología y la Histología. La primera se ocupa del estudio de la fina constitución de las células y se asocia, en los aspectos relacionados con las moléculas, con algunas partes de la Biología Molecular. La Histología es el estudio de los tejidos de las plantas. Citología e Histología, conjuntamente, son necesarias para comprender la Anatomía de las plantas, o sea, su constitución interna. Al ocuparse de los procesos de adaptación, la morfología se relaciona con la ecología, disciplina que investiga las relaciones entre la planta y su ambiente. Tales relaciones están basadas en los estudios de la fisiología vegetal, que se ocupa —de modo general— del estudio del modo en que se realizan las funciones de la planta en los campos del metabolismo, del cambio de forma (que incluye el crecimiento y desarrollo de la planta) y de los movimientos. La reproducción de las plantas y el modo en que se heredan y cambian los caracteres a través de las generaciones es el campo de la Genética. La botánica sistemática trata de averiguar las afinidades que existen entre los diversos tipos de plantas, basándose en los resultados de todas las disciplinas mencionadas previamente, entre las que, al lado de la morfología, son importantes la citología, la anatomía, el estudio de las esporas y del polen (Palinología), el estudio de la generación sexual y del embrión (Embriología), las sustancias producidas y contenidas en las plantas (fitoquímica), la Genética y la Geobotánica. Como parte de la sistemática, se encuentra principalmente la taxonomía, que se ocupa de la descripción, nomenclatura y ordenación de las especies de plantas existentes, las cuales sobrepasan el número de 330 000. A ella se añade el estudio de la historia evolutiva de las plantas (Filogenia), que se apoya especialmente en la Paleobotánica, el estudio de las plantas que vivieron en otras eras geológicas y en la evolución, que ilustra sobre las leyes y las causas que rigen la formación de las estirpes vegetales. Finalmente, dentro de la botánica existen ramas de estudio que se ocupan de modo especial de grupos particulares de organismos, como la Microbiología (que estudia los microorganismos en general, incluyendo muchos de los que se consideran organismos vegetales), la Bacteriología (que se ocupa de las bacterias), la Micología (que estudia los hongos), la Ficología (que estudia las algas), la Liquenología (estudio de los líquenes), la Briología (estudio de los briófitos: los musgos y las hepáticas), la Pteridología (estudio de los helechos). También existen distintas disciplinas aplicadas, que estudian el valor práctico de las plantas para los seres humanos y con ello establecen el enlace con la Agricultura, la Silvicultura y la Farmacia, entre otras. Como ejemplo de estas disciplinas se pueden mencionar el Mejoramiento Genético de Plantas —o fitomejoramiento— (estudia la variabilidad genética y la selección de plantas), la Fitopatología (se ocupa de las enfermedades de las plantas y de los métodos de control de las mismas), la Farmacognosia (estudia las plantas medicinales y sus principios activos). Historia La botánica moderna (desde 1945) Significado de la botánica como ciencia Los distintos grupos de vegetales participan de manera fundamental en los ciclos de la biosfera. Plantas y algas son los productores primarios, responsables de la captación de energía solar de la que depende la mayoría de la vida terrestre, de la creación de materia orgánica y también, como subproducto, de la generación del oxígeno que inunda la atmósfera y justifica que casi todos los organismos saquen ventaja del metabolismo aerobio. Alimentación humana Casi todo lo que comemos proviene de las plantas, ya sea consumiéndolas directamente (frutas, verduras hortalizas), como indirectamente a través del ganado que se alimenta con plantas que componen el forrajeras. Por lo tanto, las plantas son la base de toda la cadena alimentaria, o lo que los ecólogos llaman el primer nivel trófico. El estudio de las plantas y las técnicas de mejoramiento para producir alimentos son claves para ser capaces de alimentar al mundo y proporcionar una seguridad alimentaria para las generaciones futuras. No obstante, como todas las plantas no son beneficiosas para este fin, la botánica también estudia las especies consideradas nocivas para la agricultura. También estudia los patógenos (fitopatología) que afectan al reino vegetal y la interacción de los humanos con este reino (etnobotánica). Procesos biológicos fundamentales Las plantas son susceptibles de ser estudiadas en sus procesos fundamentales (como la división celular y síntesis proteica por ejemplo), pero sin los problemas éticos que supone estudiar animales o seres humanos. Las leyes de la herencia fueron descubiertas de esta manera por Gregor Mendel, que estudió cómo se hereda la morfología del guisante. Las leyes descubiertas por Mendel a partir del estudio de plantas han conocido desarrollos posteriores, y se han aplicado sobre las propias plantas para conseguir nuevas variedades beneficiosas. Otro estudio clásico efectuado en plantas fue el realizado por Bárbara McClintock, quien descubrió los 'genes saltarines' (o transposones) estudiando el maíz. Son ejemplos que muestran cómo la botánica ha tenido una importancia capital para el entendimiento de los procesos biológicos fundamentales. Aplicaciones de las plantas Muchas de nuestras medicinas y drogas, como el cannabis, vienen directamente del reino vegetal. Otros productos medicinales se derivan de sustancias de origen vegetal; así, la aspirina es un derivado del ácido salicílico, que originalmente se obtenía de la corteza de sauce. La investigación sobre productos farmacéuticamente útiles en las plantas es un campo activo de trabajo que rinde buenos resultados. Estimulantes populares como el café (por su contenido en cafeína), el chocolate, el tabaco (por la nicotina), y el té tienen origen vegetal. Muchas bebidas alcohólicas derivan de la fermentación de plantas como la cebada, el maíz y la uva. Las plantas también nos proveen de muchos materiales, como el algodón, la madera, el papel, el lino, el aceite vegetal, algunos tipos de cuerdas y plásticos. La producción de seda no sería posible sin el cultivo de los árboles de morera. La caña de azúcar y otras plantas han sido recientemente usadas como biomasa para producir una energía renovable alternativa al combustible fósil. Entendimiento de cambios ambientales Las plantas también pueden ayudar al entendimiento de los cambios del medio ambiente de muchas formas. Entendimiento de la destrucción de hábitat y de especies en extinción depende de un catálogo completo y exacto de plantas, de la sistemática y taxonomía. Respuesta de las plantas a radiación ultravioleta puede monitorear problemas como los agujeros en la capa de ozono. El análisis de polen depositado por plantas en miles de millones de años atrás puede ayudar a los científicos a reconstruir los climas del pasado y pronosticar el futuro, una parte esencial de investigaciones sobre cambios climáticos. Recopilar y analizar el tiempo del ciclo de vida es importante para la fenología usado para la investigación de cambios climáticos. Líquenes, sensibles a las condiciones atmosféricas, tienen un uso extensivo como indicadores de contaminación. Las plantas pueden servir como ‘sensores’, una especie de “señales tempranas de aviso” que den la alerta sobre cambios importantes en el ambiente. Por último, las plantas son sumamente valoradas en el aspecto recreativo para millones de personas que disfrutan de su uso en la jardinería, la horticultura y el arte culinario. Disciplinas Subdisciplinas de la botánica Disciplinas relacionadas Métodos de la botánica Herbario Un herbario (del latín herbarium) es una colección de plantas o partes de plantas, preservadas, casi siempre a través de la desecación, procesadas para su conservación, e identificadas, y acompañadas de información importante, como nombre científico y nombre común, utilidad, características de la planta en vivo y del sitio de muestreo, así como la ubicación del punto donde se colectó. Estas plantas se conservan indefinidamente, y constituyen un banco de información que representa la flora o vegetación de una región determinada en un espacio reducido. Estos especímenes se usan con frecuencia como material de referencia para definir el taxón de una planta; pues contienen los holotipos para estas plantas. El tipo nomenclatural o, simplemente, tipo es un ejemplar de una dada especie sobre el que se ha realizado la descripción de la misma y que, de ese modo, valida la publicación de un nombre científico basado en él. El tipo del nombre de una especie es por lo general el espécimen de herbario (o pliego de herbario) a partir del cual se ha perfilado la descripción que valida el nombre. El tipo del nombre de un género es la especie sobre la cual se basó la descripción original que validaba el nombre. El tipo del nombre de una familia es el género sobre el cual fue basada la descripción original válida. En los nombres de taxones de rango superior al de familia no se aplica el principio de tipificación. Jardín botánico Los jardines botánicos (del latín hortus botanicus) son instituciones habilitadas por un organismo público, privado o asociativo (en ocasiones la gestión es mixta) cuyo objetivo es el estudio, la conservación y divulgación de la diversidad vegetal. Se caracterizan por exhibir colecciones científicas de plantas vivas, que se cultivan para conseguir alguno de estos objetivos: su conservación, investigación, divulgación y enseñanza. En los jardines botánicos se exponen plantas originarias de todo el mundo, generalmente con el objetivo de fomentar el interés de los visitantes hacia el mundo vegetal, aunque algunos de estos jardines se dedican, exclusivamente, a determinadas plantas y a especies concretas. Código Internacional de Nomenclatura para algas, hongos y plantas Véase también Referencias Bibliografía Libros académicos y científicos sobre botánica En inglés: Buchanan, B.B., Gruissem, W. & Jones, R.L. (2000) Biochemistry & Molecular Biology of Plants. American Society of Plant Physiologists ISBN 81-88237-11-6. Crawford, R. M. M. (1989). Studies in Plant Survival. Blackwell. ISBN 0-632-01475-X Crawley, M. J. (1997). Plant Ecology. Blackwell Scientific. ISBN 0-632-03639-7. Ennos, R. y Sheffield, E. Plant Life, Blackwell Science, ISBN Introduction to plant biodiversity Fitter, A. & Hay, R. Environmental Physiology of Plants 3rd edition Sept 2001 Harcourt Publishers, Academic Press ISBN Lawlor, D.W. (2000) Photosynthesis BIOS ISBN Matthews, R. E. F. Fundamentals of Plant Virology Academic Press,1992. Mauseth, J.D.: Botany: An Introduction to Plant Biology. Jones and Bartlett Publishers, ISBN - A first year undergraduate level textbook Raven, P.H., Evert R.H. and Eichhorn, S.E.: Biology of Plants, Freeman. ISBN - A first year undergraduate level textbook Richards, P. W. (1996). The Tropical Rainforest. 2nd ed. C.U.P. (Pbk) ISBN £32,50 Ridge, I. (2002) Plants Oxford University Press Salisbury, FB and Ross, CW: Plant Physiology Wadsworth publishing company ISBN Stace, C. A. A new flora of the British Isles. 2nd ed. C.U.P.,1997. ISBN Strange, R. L. Introduction to Plant Pathology. Wiley-VCH, 2003. ISBN Taiz, L. & Zeiger, E. (1998). Plant Physiology. 3rd ed. August 2002 Sinauer Associates. ISBN Walter, H. (1985). Vegetation of the Earth. 3rd rev. ed. Springer. Willis, K. (2002) The Evolution of Plants Oxford University Press ISBN £22-99 En español: Cárdenas Miranda, Arturo (2007) Planeta vegetal,Organismos primarios de vida. ISBN Sitte, P., Weiler, E.W., Kadereit, J.W., Bresinsky, A., Körner, C. (2004). Strasburger - Tratado de Botánica. 35.ª Edición. Ediciones Omega. Barcelona. Traducido del alemán por Fortés Fortés, M.J. ISBN 84-282-1353-4 Enlaces externos Lecciones hipertextuales de botánica de la Universidad de Hamburgo. Versión original *. Glosario español-inglés-latín de nombres de plantas. Glosario inglés-español de términos de botánica. Sociedad Botánica de Venezuela Anales del Jardín Botánico de Madrid, revista editada por el Real Jardín Botánico, del CSIC Collectanea Botanica, revista editada por el Institut Botànic de Barcelona , del CSIC
190_0
Bosón
En física de partículas, un bosón es uno de los dos tipos básicos de partículas elementales de la naturaleza (el otro tipo son los fermiones). La denominación «bosón» fue acuñada por Paul Dirac para conmemorar la contribución del físico indio Satyendra Nath Bose, junto con Einstein, en el desarrollo de la Estadística de Bose-Einstein la cual teoriza las características de las partículas elementales. Entre los ejemplos de bosones se incluyen partículas fundamentales como fotones, gluones, bosones W y Z (los cuatro bosones de gauge, portadores de fuerza del modelo estándar), el bosón de Higgs, y el gravitón de gravedad cuántica; partículas compuestas (por ej.: mesones y núcleos estables de número de masa par como el deuterio (con un protón y un neutrón, número másico = 2), helio-4 o plomo-208; y algunas cuasipartículas (pares de Cooper, plasmones, y fonones). Los bosones se caracterizan por: Tienen un espín entero (0,1,2,...). No cumplen el principio de exclusión de Pauli y siguen la estadística de Bose-Einstein. Esto hace que presenten un fenómeno llamado condensación de Bose-Einstein (el desarrollo de máseres y láseres fue posible puesto que los fotones de la luz son bosones). La función de onda cuántica que describe sistemas de bosones es simétrica respecto al intercambio de partículas. Por el teorema espín-estadística sabemos que la segunda y tercera característica son consecuencia necesaria de la primera. Algunos bosones, aunque se comportan como bosones, de hecho están compuestos de otras partículas. Por ejemplo, los núcleos de átomos de helio, bajo ciertas condiciones, se comportan como bosones aun cuando están compuestos por cuatro fermiones que, a su vez, no son elementales cuando son examinados en experimentos de muy alta energía. Ejemplos de bosones Bosones compuestos El núcleo de deuterio, un isótopo del hidrógeno. Núcleos de helio-4 o partículas alfa. En definitiva, cualquier núcleo con espín entero. Bosones de gauge simples Véase también Anexo:Tabla_de_partículas#Bosones Todas las partículas elementales observadas son bosones (con espín entero) o fermiones (con espín medio entero impar). Mientras que las partículas elementales que componen la materia ordinaria (leptones y quarks) son fermiones, los bosones elementales ocupan un papel especial en la física de partículas. Actúan como portadores de fuerza que dan lugar a fuerzas entre otras partículas, o en un caso dan lugar al fenómeno de masa. Según el Modelo Estándar de Física de Partículas hay cinco bosones elementales: Un bosón escalar (espín=0) H0 Bosón de Higgs – la partícula que da lugar al fenómeno de masa a través del mecanismo de Higgs Cuatro bosones vectoriales (espín=1) que actúan como portadores de fuerza. Estos son los bosones de gauge: γ Fotones – el portador de fuerza del campo electromagnético g Gluones (ocho tipos diferentes): portadores de fuerza que median en la fuerza fuerte Z Bosón débil neutral – el portador de fuerza que media la fuerza débil W± Bosones débiles cargados (dos tipos): también portadores de fuerza que median en la fuerza débil Un bosón tensor (espín=2) llamado gravitón (G) ha sido planteado como el portador de fuerza para la gravedad, pero hasta ahora todos los intentos de incorporar la gravedad en el modelo estándar han fallado. Otros Fonones. Bosón X. Discusión Todas las partículas elementales son bosones o fermiones, dependiendo de si su espín es entero o semientero. En física de altas energías y de partículas se dice que los bosones son los mediadores de fuerza o partículas portadoras de las interacciones fundamentales, puesto que los campos eléctromagnético, electrodébil, fuerte y presumiblemente el gravitatorio están asociados a partículas de espín entero. De hecho, la descripción cuántica de las interacciones fundamentales mencionadas consiste en el intercambio de una partícula que será siempre un bosón virtual. Así la interacción de dichos bosones virtuales con fermiones reales es lo que da lugar a dichas interacciones o fuerzas fundamentales. El alcance de dicha interacción en general viene dado por la masa de la partícula intercambiada. A los bosones involucrados en dichas interacciones se les denomina bosones gauge. Estos son los bosones W y Z para la interacción débil, los gluones para la interacción fuerte, los fotones para la interacción electromagnética y el hipotético gravitón para la interacción gravitatoria. Las partículas compuestas por otras partículas, como los protones, los neutrones o los núcleos atómicos, pueden ser bosones o fermiones dependiendo de su espín total. De ahí que muchos núcleos sean, de hecho, bosones. Basta que el número de fermiones que componga esa partícula sea par para que el sistema compuesto sea un bosón. Así, la mayoría de los elementos tiene isótopos que serán fermiones, es el caso del helio-3, o bosones, como el helio-4. El deuterio es también bosón; sin embargo, sus vecinos protio y tritio son fermiones. Mientras que los fermiones están obligados a cumplir el principio de exclusión de Pauli: "no puede haber más de una partícula ocupando un mismo estado cuántico", no existe dicha exclusión para los bosones, ellos pueden ocupar estados cuánticos idénticos. El resultado de esto es que el espectro de un gas de fotones a cierta temperatura de equilibrio posee un espectro de Planck (ejemplos de ello son la radiación del cuerpo negro o la radiación del fondo cósmico de microondas, testigo que nos remonta al universo temprano). El trabajo con láseres, las propiedades de superfluido del helio-4 y la reciente formación del condensado de Bose-Einstein son todos consecuencia de la estadística de los bosones. Las diferencias entre las estadísticas bosónica y fermiónica es solo apreciable en grandes densidades, cuando las funciones de onda se superponen. A bajas densidades, ambos tipos de estadísticas se aproximan a la estadística de Maxwell-Boltzmann, donde ambos tipos de partículas se comportan clásicamente. Notas Referencias Enlaces externos Teoría cuántica de campos Física atómica Física del estado sólido Epónimos relacionados con la física
191_0
Botánica pura
La botánica pura estudia las plantas desde un punto de vista puramente biológico centrándose en su morfología. Consta de tres niveles: Organografía Histología vegetal Citología vegetal Se divide en: Botánica general Citología: estudia las células vegetales. Histología: estudia las características de los distintos tejidos. Fisiología vegetal: estudia las funciones vitales. Genética vegetal: estudia los mecanismos de la herencia y la reproducción. Ecología vegetal: estudia las interacciones con el medio ambiente. Fitopatología: estudia las causas de las enfermedades. Palionología: estudia las estructuras del polen y las esporas. Embriología: estudia el desarrollo de los embriones. Botánica especial Sistemática:estudia su diversidad, así como su relación biológica Taxonómica: estudia la clasificación. Paleobótanica: estudia los restos de los fósiles vegetales. Geobotánica subdividida en: Fitogeografía: estudia la distribución geográfica de los vegetales Fitosociologia: estudia las asociaciones vegetales. Botánica aplicada Se divide en: Botánica agrícola Botánica farmacéutica Botánica forestal, etc. Botánica pura
193_0
Botánica especial
La botánica especial, se refiere a los individuos en particular y a las entidades que componen como tales. Se subdivide en: Botánica Sistemática, que estudia las relaciones filogenéticas que existen entre las distintas entidades botánicas. Geobótanica, que estudia la distribución de los vegetales en el mundo y las relaciones entre las plantas y el entorno geológico. Ecología vegetal, que estudia el medio ambiente de las plantas. Teratología vegetal, que estudia las malformaciones que pueden sufrir las plantas. Véase también Botánica pura Botánica Geobiología Biogeografía Ecología Disciplinas de la botánica
194_0
Botánica sistemática
La botánica sistemática es la ciencia que se ocupa de establecer relaciones de parentesco entre las plantas a partir de sus caracteres (por ejemplo morfología, anatomía, fisiología, estructura del ADN, etc.). La disciplina abarca la taxonomía (que ordena a las plantas en un sistema de clasificación de los organismos vegetales), la clasificación filogenética y la evolución de los organismos vegetales. La sistemática moderna no solo se basa en la morfología externa del vegetal, también considera la constitución anatómica, sus caracteres genéticos, su ecología, su distribución geográfica, sus antepasados... para intentar formar un sistema acorde con las afinidades verdaderas de las plantas, es decir, el grado de parentesco que existe entre los diversos grupos de plantas. Las tendencias sistemáticas actuales integran la fitopaleontología con el fin de agrupar las plantas según sus verdaderas afinidades. En la actualidad los botánicos sistemáticos se dividen en dos tendencias principales, por una parte están los que siguen empleando los métodos tradicionales de clasificación biológica, mientras que por otra parte están los métodos cladistas. Véase también Taxonomía Quimiotaxonomía Sistemática Clasificación de los organismos vegetales Botánica sistemática
199_0
Bioquímica
La bioquímica es una rama de la ciencia que estudia la composición química de los seres vivos, especialmente las proteínas, carbohidratos, lípidos y ácidos nucleicos, además de otras pequeñas moléculas presentes en las células y las reacciones químicas que sufren estos compuestos (metabolismo) que les permiten obtener energía (catabolismo) y generar biomoléculas propias (anabolismo). La bioquímica se basa en el concepto de que todo ser vivo contiene carbono y en general las moléculas biológicas están compuestas principalmente de carbono, hidrógeno, oxígeno, nitrógeno, fósforo y azufre. Es la rama de la ciencia que estudia la base química de las moléculas que componen algunas células y los tejidos, que catalizan las reacciones químicas del metabolismo celular como la digestión, la fotosíntesis y la inmunidad, entre otras muchas cosas. Podemos entender la bioquímica como una disciplina científica integradora que elabora el estudio de los biomas y biosistemas. Integra de esta forma las leyes químico-físicas y la evolución biológica que afectan a los biosistemas y a sus componentes. Lo hace desde un punto de vista molecular y trata de entender y aplicar su conocimiento a amplios sectores de la medicina (terapia genética y biomedicina), la agroalimentación, la farmacología. Constituye un pilar fundamental de la biotecnología, y se ha consolidado como una disciplina esencial para abordar los grandes problemas y enfermedades actuales y del futuro, tales como el cambio climático, la escasez de recursos agroalimentarios ante el aumento de población mundial, el agotamiento de las reservas de combustibles fósiles, la aparición de nuevas alergias, el aumento del cáncer, las enfermedades genéticas, la obesidad, etc. La bioquímica es una ciencia experimental y por ello recurrirá al uso de numerosas técnicas instrumentales propias y de otros campos, pero la base de su desarrollo parte del hecho de que lo que ocurre en vivo a nivel subcelular se mantiene o se conserva tras el fraccionamiento subcelular, y a partir de ahí, podemos estudiarlo. Historia Siglo XIX y primera mitad del XX La historia de la bioquímica como la conocemos hoy en día es prácticamente moderna; desde el se comenzó a direccionar una buena parte de la biología y la química a la creación de una nueva disciplina integradora: la química fisiológica o la bioquímica. Pero la aplicación de la bioquímica y su conocimiento probablemente comenzó hace 5000 años, con la producción de pan usando levaduras, en un proceso conocido como fermentación. Es difícil abordar la historia de la bioquímica, en cuanto que, es una mezcla compleja de química orgánica y biología, y en ocasiones, se hace complicado discernir entre lo exclusivamente biológico y lo exclusivamente químico orgánico y es evidente que la contribución a esta disciplina ha sido muy extensa. Aunque es cierto que existen datos experimentales que son básicos en la bioquímica. Se suele situar el inicio de la bioquímica en los descubrimientos en 1828 de Friedrich Wöhler que publicó un artículo acerca de la síntesis de urea, probando que los compuestos orgánicos pueden ser creados artificialmente, en contraste con la creencia comúnmente aceptada durante mucho tiempo, de que la generación de estos compuestos era posible solo en el interior de los seres vivos. La diastasa fue la primera enzima descubierta. En 1833 se extrajo de la solución de malta por Anselme Payen y Jean-François Persoz, dos químicos de una fábrica de azúcar francesa. A mediados del , Louis Pasteur demostró los fenómenos de isomería química existente entre las moléculas de ácido tartárico provenientes de los seres vivos y las sintetizadas químicamente en el laboratorio. También estudió el fenómeno de la fermentación y descubrió que intervenían ciertas levaduras, y por tanto no era exclusivamente un fenómeno químico como se había defendido hasta ahora (entre ellos el propio Liebig); así Pasteur escribió: «la fermentación del alcohol es un acto relacionado con la vida y la organización de las células de las levaduras, y no con la muerte y la putrefacción de las células». Además desarrolló un método de esterilización de la leche, el vino y la cerveza (pasteurización) y contribuyó enormemente a refutar la idea de la generación espontánea de los seres vivos. En 1869 se descubre la nucleína y se observa que es una sustancia muy rica en fósforo. Dos años más tarde, Albrecht Kossel concluye que la nucleína es rica en proteínas y contiene las bases púricas adenina y guanina y las pirimidínicas citosina y timina. En 1889 se aíslan los dos componentes mayoritarios de la nucleína: Proteínas (70 %) Sustancias de carácter ácido: ácidos nucleicos (30 %) En 1878 el fisiólogo Wilhelm Kühne acuñó el término enzima para referirse a los componentes biológicos desconocidos que producían la fermentación. La palabra enzima fue usada después para referirse a sustancias inertes tales como la pepsina. En 1897 Eduard Buchner comenzó a estudiar la capacidad de los extractos de levadura para fermentar azúcar a pesar de la ausencia de células vivientes de levadura. En una serie de experimentos en la Universidad Humboldt de Berlín, encontró que el azúcar era fermentado incluso cuando no había elementos vivos en los cultivos de células de levaduras. Llamó a la enzima que causa la fermentación de la sacarosa, “zimasa”. Al demostrar que las enzimas podrían funcionar fuera de una célula viva, el siguiente paso fue demostrar cuál era la naturaleza bioquímica de esos biocatalizadores. El debate fue extenso; muchos, como el bioquímico alemán Richard Willstätter, discrepaban de que la proteína fuera el catalizador enzimático, hasta que en 1926, James B. Sumner demostró que la enzima ureasa era una proteína pura y la cristalizó. La conclusión de que las proteínas puras podían ser enzimas fue definitivamente probada en torno a 1930 por John Howard Northrop y Wendell Meredith Stanley, quienes trabajaron con diversas enzimas digestivas como la pepsina, la tripsina y la quimotripsina. En 1903 Mijaíl Tswett inicia los estudios de cromatografía para separación de pigmentos. En torno a 1915 Gustav Embden y Otto Meyerhof realizan sus estudios sobre la glucólisis. En 1920 se descubre que en las células hay ADN y ARN y que difieren en el azúcar que forma parte de su composición: desoxirribosa o ribosa. El ADN reside en el núcleo. Unos años más tarde, se descubre que en los espermatozoides hay fundamentalmente ADN y proteínas, y posteriormente Feulgen descubre que hay ADN en los cromosomas con su tinción específica para este compuesto. En 1925 Theodor Svedberg demuestra que las proteínas son macromoléculas y desarrolla la técnica de ultracentrifugación analítica. En 1928, Alexander Fleming descubre la penicilina y desarrolla estudios sobre la lisozima. Richard Willstätter (en torno 1910) estudia la clorofila y comprueba la similitud que hay con la hemoglobina. Posteriormente Hans Fischer en torno a 1930, investiga la química de las porfirinas de las que derivan la clorofila o el grupo porfirínico de la hemoglobina. Consiguió sintetizar hemina y bilirrubina. Paralelamente Heinrich Otto Wieland formula teorías sobre las deshidrogenaciones y explica la constitución de muchas otras sustancias de naturaleza compleja, como la pteridina, las hormonas sexuales o los ácidos biliares. En la década de 1940, Melvin Calvin concluye el estudio del ciclo de Calvin en la fotosíntesis y Albert Claude la síntesis del ATP en las mitocondrias. En torno a 1945 Gerty Cori, Carl Cori, y Bernardo Houssay completan sus estudios sobre el ciclo de Cori. En 1953 James Dewey Watson y Francis Crick, gracias a los estudios previos con cristalografía de rayos X de ADN de Rosalind Franklin y Maurice Wilkins, y los estudios de Erwin Chargaff sobre apareamiento de bases nitrogenadas, deducen la estructura de doble hélice del ADN. En 1957, Matthew Meselson y Franklin Stahl demuestran que la replicación del ADN es semiconservativa. Segunda mitad del En la segunda mitad del , comienza la auténtica revolución de la bioquímica y la biología molecular moderna, especialmente gracias al desarrollo de las técnicas experimentales más básicas como la cromatografía, la centrifugación, la electroforesis, las técnicas radioisotópicas y la microscopía electrónica, y las técnicas más complejas como la cristalografía de rayos X, la resonancia magnética nuclear, la PCR (Kary Mullis), el desarrollo de la inmuno-técnicas. Desde 1950 a 1975 , se conocen en profundidad y detalle aspectos del metabolismo celular inimaginables hasta ahora (fosforilación oxidativa (Peter Dennis Mitchell), ciclo de la urea y ciclo de Krebs (Hans Adolf Krebs), así como otras rutas metabólicas), se produce toda una revolución en el estudio de los genes y su expresión; se descifra el código genético (Francis Crick, Severo Ochoa, Har Gobind Khorana, Robert W. Holley y Marshall Warren Nirenberg), se descubren las enzimas de restricción (finales de 1960, Werner Arber, Daniel Nathans y Hamilton Smith), la ADN ligasa (en 1972, Mertz y Davis) y finalmente en 1973 Stanley Cohen y Herbert Boyer producen el primer ser vivo recombinante, naciendo así la ingeniería genética, convertida en una herramienta poderosísima con la que se supera la frontera entre especies y con la que podemos obtener un beneficio hasta ahora impensable. En 1970, un argentino, Luis Federico Leloir, médico, bioquímico y farmacéutico recibió el Premio Nobel de Química por sus investigaciones sobre los nucleótidos de azúcar, y el rol que cumplen en la fabricación de los hidratos de carbono. En 1984, otro argentino, César Milstein, oriundo de la ciudad de Bahía Blanca, recibe el Premio Nobel de Medicina por sus investigaciones sobre anticuerpos monoclonales, hoy utilizados para tratar muchas enfermedades, incluidos algunos tipos de cáncer. De 1975 hasta principios del , comienza a secuenciarse el ADN (Allan Maxam, Walter Gilbert y Frederick Sanger), comienzan a crearse las primeras industrias biotecnológicas (Genentech), se aumenta la creación de fármacos y vacunas más eficaces, se eleva el interés por las inmunología y las células madres y se descubre la enzima telomerasa (Elizabeth Blackburn y Carol Greider). En 1989 se utiliza la biorremediación a gran escala en el derrame del petrolero Exxon Valdez en Alaska. Se clonan los primeros seres vivos, se secuencia el ADN de decenas de especies y se publica el genoma completo del hombre (Craig Venter, Celera Genomics y Proyecto Genoma Humano), se resuelven decenas de miles de estructuras proteicas y se publican en PDB, así como genes, en GenBank. Comienza el desarrollo de la bioinformática y la computación de sistemas complejos, que se constituyen como herramientas muy poderosas en el estudio de los sistemas biológicos. Se crea el primer cromosoma artificial y se logra la primera bacteria con genoma sintético (2007, 2009, Craig Venter). Se fabrican las nucleasas con dedos de zinc. Se inducen artificialmente células, que inicialmente no eran pluripotenciales, a células madre pluripotenciales (Shin'ya Yamanaka). Comienzan a darse los primeros pasos. Ramas de la bioquímica El pilar fundamental de la investigación bioquímica clásica se centra en las propiedades de las proteínas, muchas de las cuales son enzimas. Sin embargo, existen otras disciplinas que se centran en las propiedades biológicas de carbohidratos (glucobiología) y lípidos (lipobiología). Por razones históricas la bioquímica del metabolismo de la célula ha sido intensamente investigada, en importantes líneas de investigación actuales (como el Proyecto Genoma, cuya función es la de identificar y registrar todo el material genético humano), se dirigen hacia la investigación del ADN, el ARN, la síntesis de proteínas, la dinámica de la membrana celular y los ciclos energéticos. Las ramas de la bioquímica son muy amplias y diversas, y han ido variando con el tiempo y los avances de la biología, la química y la física. Bioquímica estructural: es un área de la bioquímica que pretende comprender la arquitectura química de las macromoléculas biológicas, especialmente de las proteínas y de los ácidos nucleicos (ADN y ARN). Así se intenta conocer las secuencias peptídicas, su estructura y conformación tridimensional, y las interacciones físico-químicas atómicas que posibilitan a dichas estructuras. Uno de sus máximos retos es determinar la estructura de una proteína conociendo solo la secuencia de aminoácidos, que supondría la base esencial para el diseño racional de proteínas (ingeniería de proteínas). Química orgánica: es un área de la química que se encarga del estudio de los compuestos orgánicos (es decir, aquellos que tienen enlaces covalentes carbono-carbono o carbono-hidrógeno) que provienen específicamente de seres vivos. Se trata de una ciencia íntimamente relacionada con la bioquímica clásica, ya que en la mayoría de los compuestos biológicos participa el carbono Mientras que la bioquímica clásica ayuda a comprender los procesos biológicos con base en conocimientos de estructura, enlace químico, interacciones moleculares y reactividad de las moléculas orgánicas, la química bioorgánica intenta integrar los conocimientos de síntesis orgánica, mecanismos de reacción, análisis estructural y métodos analíticos con las reacciones metabólicas primarias y secundarias, la biosíntesis, el reconocimiento celular y la diversidad química de los organismos vivos. De allí surge la Química de Productos Naturales (V. Metabolismo secundario). Enzimología: estudia el comportamiento de los catalizadores biológicos o enzimas, como son algunas proteínas y ciertos ARN catalíticos, así como las coenzimas y cofactores como metales y vitaminas. Así se cuestiona los mecanismos de catálisis, los procesos de interacción de las enzimas-sustrato, los estados de transición catalíticos, las actividades enzimáticas, la cinética de la reacción y los mecanismos de regulación y expresión enzimáticas, todo ello desde un punto de vista bioquímico. Estudia y trata de comprender los elementos esenciales del centro activo y de aquellos que no participan, así como los efectos catalíticos que ocurren en la modificación de dichos elementos; en este sentido, utilizan frecuentemente técnicas como la mutagénesis dirigida. Bioquímica metabólica: es un área de la bioquímica que pretende conocer los diferentes tipos de rutas metabólicas a nivel celular, y su contexto orgánico. De esta forma son esenciales conocimientos de enzimología y biología celular. Estudia todas las reacciones bioquímicas celulares que posibilitan la vida, y así como los índices bioquímicos orgánicos saludables, las bases moleculares de las enfermedades metabólicas o los flujos de intermediarios metabólicos a nivel global. De aquí surgen disciplinas académicas como la bioenergética (estudio del flujo de energía en los organismos vivos), la bioquímica nutricional (estudio de los procesos de nutrición asociados a| rutas metabólicas) y la bioquímica clínica (estudio de las alteraciones bioquímicas en estado de enfermedad o traumatismo). La metabolómica es el conjunto de ciencias y técnicas dedicadas al estudio completo del sistema constituido por el conjunto de moléculas que constituyen los intermediarios metabólicos, metabolitos primarios y secundarios, que se pueden encontrar en un sistema biológico. Xenobioquímica: es la disciplina que estudia el comportamiento metabólico de los compuestos cuya estructura química no es propia en el metabolismo regular de un organismo determinado. Pueden ser metabolitos secundarios de otros organismos (por ejemplo las micotoxinas, los venenos de serpientes y los fitoquímicos cuando ingresan al organismo humano) o compuestos poco frecuentes o inexistentes en la naturaleza. La farmacología es una disciplina que estudia a los xenobióticos que benefician al funcionamiento celular en el organismo debido a sus efectos terapéuticos o preventivos (fármacos). La farmacología tiene aplicaciones clínicas cuando las sustancias son utilizadas en el diagnóstico, prevención, tratamiento y alivio de síntomas de una enfermedad así como el desarrollo racional de sustancias menos invasivas y más eficaces contra dianas biomoleculares concretas. Por otro lado, la toxicología es el estudio que identifica, estudia y describe, la dosis, la naturaleza, la incidencia, la severidad, la reversibilidad y, generalmente, los mecanismos de los efectos adversos (efectos tóxicos) que producen los xenobióticos. Actualmente la toxicología también estudia el mecanismo de los componentes endógenos, como los radicales libres de oxígeno y otros intermediarios reactivos, generados por xenobióticos y endobióticos. Inmunología: área de la biología, la cual se interesa por la reacción del organismo frente a otros organismos como las bacterias y virus. Todo esto tomando en cuenta la reacción y funcionamiento del sistema inmune de los seres vivos. Es esencial en esta área el desarrollo de los estudios de producción y comportamiento de los anticuerpos. Endocrinología: es el estudio de las secreciones internas llamadas hormonas, las cuales son sustancias producidas por células especializadas cuyo fin es de afectar la función de otras células. La endocrinología trata la biosíntesis, el almacenamiento y la función de las hormonas, las células y los tejidos que las secretan, así como los mecanismos de señalización hormonal. Existen subdisciplinas como la endocrinología médica, la endocrinología vegetal y la endocrinología animal. Neuroquímica: es el estudio de las moléculas orgánicas que participan en la actividad neuronal. Este término es empleado con frecuencia para referir a los neurotransmisores y otras moléculas como las drogas neuro-activas que influencian la función neuronal. Quimiotaxonomía: es el estudio de la clasificación e identificación de organismos de acuerdo a sus diferencias y similitudes demostrables en su composición química. Los compuestos estudiados pueden ser fosfolípidos, proteínas, péptidos, heterósidos, alcaloides y terpenos. John Griffith Vaughan fue uno de los pioneros de la quimiotaxonomía. Entre los ejemplos de las aplicaciones de la quimiotaxonomía pueden citarse la diferenciación de las familias Asclepiadaceae y Apocynaceae según el criterio de la presencia de látex; la presencia de agarofuranos en la familia Celastraceae; las sesquiterpenlactonas con esqueleto de germacrano que son características de la familia Asteraceae o la presencia de abietanos en las partes aéreas de plantas del género Salvia del viejo Mundo a diferencia de las del Nuevo Mundo que presentan principalmente neo-clerodanos. Ecología química: es el estudio de los compuestos químicos de origen biológico implicados en las interacciones de organismos vivos. Se centra en la producción y respuesta de moléculas señalizadoras (semioquímicos), así como los compuestos que influyen en el crecimiento, supervivencia y reproducción de otros organismos (aleloquímicos). Virología: área de la biología, que se dedica al estudio de los biosistemas más elementales: los virus. Tanto en su clasificación y reconocimiento, como en su funcionamiento y estructura molecular. Pretende reconocer dianas para la actuación de posibles de fármacos y vacunas que eviten su directa o preventivamente su expansión. También se analizan y predicen, en términos evolutivos, la variación y la combinación de los genomas víricos, que podrían hacerlos finalmente, más peligrosos. Finalmente suponen una herramienta con mucha proyección como vectores recombinantes, y han sido ya utilizados en terapia génica. Genética molecular e ingeniería genética: es un área de la bioquímica y la biología molecular que estudia los genes, su herencia y su expresión. Molecularmente, se dedica al estudio del ADN y del ARN principalmente, y utiliza herramientas y técnicas potentes en su estudio, tales como la PCR y sus variantes, los secuenciadores masivos, los kits comerciales de extracción de ADN y ARN, procesos de transcripción-traducción in vitro e in vivo, enzimas de restricción, ADN ligasas… Es esencial conocer como el ADN se replica, se transcribe y se traduce a proteínas (Dogma Central de la Biología Molecular), así como los mecanismos de expresión basal e inducible de genes en el genoma. También estudia la inserción de genes, el silenciamiento génico y la expresión diferencial de genes y sus efectos. Superando así las barreras y fronteras entre especies en el sentido que el genoma de una especie podemos insertarlo en otro y generar nuevas especies. Uno de sus máximos objetivos actuales es conocer los mecanismos de regulación y expresión genética, es decir, obtener un código epigenético. Constituye un pilar esencial en todas las disciplinas biocientíficas, especialmente en biotecnología. La biotecnología moderna tiene múltiples aplicaciones y variadas e incluyen, además de la fabricación de medicamentos, alimentos, papel, entre otros, el mejoramiento de animales y plantas de interés agronómico. Biología Molecular: es la disciplina científica que tiene como objetivo el estudio de los procesos que se desarrollan en los seres vivos desde un punto de vista molecular. Así como la bioquímica clásica investiga detalladamente los ciclos metabólicos y la integración y desintegración de las moléculas que componen los seres vivos, la biología molecular pretende fijarse con preferencia en el comportamiento biológico de las macromoléculas (ADN, ARN, enzimas, hormonas, etc.) dentro de la célula y explicar las funciones biológicas del ser vivo por estas propiedades a nivel molecular. Biología celular: (antiguamente citología, de citos=célula y logos=Estudio o Tratado ) es un área de la biología que se dedica al estudio de la morfología y fisiología de las células procariotas y eucariotas. Trata de conocer sus propiedades, estructura, composición bioquímica, funciones, orgánulos que contienen, su interacción con el ambiente y su ciclo vital. Es esencial en esta área conocer los procesos intrínsecos a la vida celular durante el ciclo celular, como la nutrición, la respiración, la síntesis de componentes, los mecanismos de defensa, la división celular y la muerte celular. También se deben conocer los mecanismos de comunicación de células (especialmente en organismos pluricelulares) o las uniones intercelulares. Es un área esencialmente de observación y experimentación en cultivos celulares, que, frecuentemente, tienen como objetivo la identificación y separación de poblaciones celulares y el reconocimiento de orgánulos celulares. Algunas técnicas utilizadas en biología celular tienen que ver con el empleo de técnicas de citoquímica, siembra de cultivos celulares, observación por microscopía óptica y electrónica, inmunocitoquímica, inmunohistoquímica, ELISA o citometría de flujo. Técnicas bioquímicas básicas Al ser una ciencia experimental la bioquímica requiere de numerosas técnicas instrumentales que posibilitan su desarrollo y ampliación, algunas de ellas se usan diariamente en cualquier laboratorio y otras son muy exclusivas. Fraccionamiento subcelular, incluyen multitud de técnicas. Espectrofotometría Centrifugación Cromatografía Electroforesis Técnicas radioisotópicas Citometría de flujo Inmunoprecipitación ELISA Microscopio electrónico Cristalografía de rayos X Resonancia magnética nuclear Espectrometría de masas Fluorimetría Espectroscopia de resonancia magnética nuclear Expectativas y retos de la bioquímica La bioquímica es una ciencia experimental que tiene un presente y un futuro prometedor, en el sentido, que se yergue como base de la biotecnología y la biomedicina. La bioquímica es básica para la formación de organismos y alimentos transgénicos, la biorremediación o la terapia génica, y se constituye como faro y esperanza de los grandes retos que plantea el . No cabe duda de que los cambios que traerá, beneficiarán enormemente a la humanidad, pero el hecho intrínseco de ser un conocimiento tan poderoso lo puede hacer peligroso, en este sentido es importante áreas como la bioética que regulan la moralidad y guían el conocimiento biológico hacia el beneficio humano sin transgresiones morales. El conocimiento bioquímico tiene grandes objetivos como progresar en la terapia génica, por ejemplo contra el cáncer o el VIH, desarrollar alimentos transgénicos más eficientes, resistentes, seguros y saludables, aplicar los conocimientos bioquímicos a la lucha contra el cambio climático y la extinción de especies, generar nuevos fármacos más eficientes, investigar y buscar dianas de las enfermedades, conocer los patrones de expresión génica, generar nuevos materiales, mejorar la eficiencia de la producción industrial… Importantes bioquímicos iberoamericanos Severo Ochoa Margarita Salas María Antonia Blasco Marhuenda Mariano Barbacid Jesús Ávila de Grado Carlos López Otín Eladio Viñuela Alberto Sols Santiago Grisolía García Luis Federico Leloir Andrea Gamarnik Alberto Kornblihtt Alejandra Bravo Francisco Bolívar Zapata César Milstein Pablo Valenzuela Alexis Kalergis Cecilia Hidalgo Tapia Ramón Latorre Etimología El término bioquímica tiene una procedencia doble y ambas concuerdan. Por una parte procede del francés “biochimie“. Por otra parte, procede del griego “bios”, que significa “vida”, antepuesto a la palabra “química”, que finalmente procedería del egipcio kēme, o del griego khymei- χῡμεία (etimología discutida) y cuyo significado sería tierra. Véase también Química orgánica Biología molecular Biotecnología Biomedicina Genoma humano Farmacia Ingeniería genética Biomolécula Metabolismo Bioquímica clínica Sociedad Española de Bioquímica y Biología Molecular Bioquímica diagnóstica Referencias Enlaces externos Química orgánica
203_0
Baricentro
En física, el baricentro de un cuerpo material coincide con el centro de masas del mismo cuando el cuerpo es homogéneo (densidad uniforme) o cuando la distribución de materia en el cuerpo tiene ciertas propiedades, tales como la simetría. Se distingue del centroide en geometría, donde el baricentro de una superficie contenida en una figura geométrica plana es un punto tal que cualquier recta que pasa por él divide a dicho segmento en dos partes de igual momento respecto a dicha recta. Si uno de los dos cuerpos en órbita es mucho más masivo que el otro y los cuerpos están relativamente cerca uno del otro, el baricentro normalmente se ubicará dentro del objeto más masivo. En este caso, en lugar de que los dos cuerpos parezcan orbitar alrededor de un punto entre ellos, el cuerpo menos masivo parecerá orbitar alrededor del cuerpo más masivo, mientras que se puede observar que el cuerpo más masivo se tambalea ligeramente. Este es el caso del sistema Tierra-Luna, cuyo baricentro se encuentra en promedio a del centro de la Tierra, que es el 75% del radio de la Tierra de . Cuando los dos cuerpos son de masas similares, el baricentro generalmente se ubicará en un punto entre ellos y ambos cuerpos orbitarán alrededor de él. Este es el caso de Plutón y Caronte, uno de los satélites naturales de Plutón, así como de muchos asteroides binarios y estrellas binarias. Cuando el objeto menos masivo está lejos, el baricentro puede ubicarse fuera del objeto más masivo. Este es el caso de Júpiter y el Sol; a pesar de que el Sol es mil veces más masivo que Júpiter, su baricentro está ligeramente fuera del Sol debido a la distancia relativamente grande entre ellos. Problema de los dos cuerpos El baricentro es uno de los focos de la órbita elíptica de cada cuerpo en cuestión. Este es un concepto importante en los campos de la astronomía y la astrofísica. Si a es el semieje mayor del sistema, r1 es el semieje mayor de la órbita del primario alrededor del baricentro, y es el semieje mayor de la órbita del secundario. Cuando el baricentro está ubicado dentro del cuerpo más masivo, ese cuerpo parecerá "tambalearse" en lugar de seguir una órbita perceptible. En un caso simple de dos cuerpos, la distancia del centro del primario al baricentro, r1, viene dada por: donde : r1 es la distancia del centro del cuerpo 1 al baricentro a es la distancia entre los centros de los dos cuerpos m1 and m2 son las masas de los dos cuerpos. Cálculo del baricentro Sean A1, …, An n puntos, y m1, …, mn n números (m como masa). Entonces el baricentro de los (Ai, mi) es el punto G definido como sigue: Esta definición no depende del punto O, que puede ser cualquiera. Si se toma el origen del plano o del espacio se obtienen las coordenadas del baricentro como promedio ponderado por los mi de las coordenadas de los puntos Ai: La definición anterior equivale a la fórmula siguiente, más práctica para el cálculo vectorial, pues prescinde de las fracciones (se obtiene tomando O = G): Conceptos relacionados Un isobaricentro (iso: mismo) es un baricentro con todas las masas iguales entre sí; es usual en tal caso tomarlas iguales a 1. Si no se precisan las masas, el baricentro es por defecto el isobaricentro. El baricentro coincide con el concepto físico de centro de masa de un cuerpo material en tanto que el cuerpo sea homogéneo. La coincidencia del baricentro y el centro de masa permite localizar el primero de una forma sencilla. Si tomamos una superficie recortada en una cartulina y la sujetamos verticalmente desde cualquiera de sus puntos, girará hasta que el centro de gravedad (baricentro) se sitúe justamente en la vertical del punto de sujeción; marcando dicha vertical sobre la cartulina y repitiendo el proceso sujetando desde un segundo punto, encontraremos el baricentro en el punto de intersección. Concepto físico En Física, el centroide, el centro de gravedad y el centro de masa pueden, bajo ciertas circunstancias, coincidir entre sí, aunque designan conceptos diferentes. El centroide es un concepto puramente geométrico que depende de la forma del sistema; el centro de masas depende de la distribución de materia, mientras que el centro de gravedad depende del campo gravitatorio. Consideremos un cuerpo material: Para que el centroide del cuerpo coincida con el centro de masa, el cuerpo debe tener densidad uniforme o una distribución de materia que presente ciertas propiedades, tales como la simetría. Para que un centro de masa del cuerpo coincida con el centro de gravedad, el cuerpo debe estar bajo la influencia de un campo gravitatorio uniforme. Una figura cóncava puede tener su centroide en un punto situado fuera de la misma figura. Propiedades algebraicas Las propiedades algebraicas del baricentro son: Homogeneidad: el baricentro no cambia si se multiplica todas las masas por un mismo factor k ≠ 0. Formalmente: bar { (A1, m1), …, (An, mn) } = bar { (A1, km1), …, (An, kmn) }. Asociatividad: el baricentro se puede calcular reagrupando puntos, es decir introduciendo baricentros parciales. Por ejemplo, si D = bar {(A, a), (B, b)} (con a + b ≠ 0) entonces bar {(A, a), (B, b), (C, c)} = bar {(D,a + b), (C, c)} (a + b + c ≠ 0) Ejemplos Ejemplo 1 Dado el centro de masa de un triángulo ABC. Sea I = bar { (B, 1), (C, 1)}, entonces G = bar {(A, 1), (B, 1), (C, 1)} = bar {(A, 1), (I, 2)}, lo que significa que G está en el segmento [A,I], a un tercio del camino a partir de I. Ejemplo 2 El baricentro se puede definir en las matemáticas con coeficientes negativos. Como no existen masas negativas, ¿qué significado físico se puede atribuir a estos cálculos? He aquí un ejemplo muy sencillo: en una hoja de cartón se ha recortado una "medialuna" como lo muestra la figura, constituida de un círculo amarillo, con centro B, en el cual hemos eliminado otro círculo de radio dos veces menor, con centro A. Se pregunta por el centro de masa de esa medialuna. El cálculo resulta muy simplificado si consideramos a la "medialuna" como una yuxtaposición de dos discos, uno grande con masa positiva, y otro pequeño, con masa negativa. Las masas son proporcionales a las áreas (densidad uniforme), lo que daría una masa de 4 para el primer disco, y de -1 para el segundo. Entonces G = bar {(A, -1), (B, 4)}. Cálculo geométrico del baricentro El cálculo geométrico (con regla y compás) del baricentro de un polígono (regular o irregular), de n vértices, se puede realizar de la siguiente forma: Se descompone el polígono en triángulos y cuadriláteros disjuntos (que no tengan vértices en común). Se calculan los baricentros de estos triángulos y cuadriláteros, y se forma el polígono correspondiente. Se puede probar que este algoritmo tiene orden logarítmico. Véase también Centro de gravedad Centro de masas Teorema del centroide de Pappus Centro geográfico Recta de Euler Ortocentro Circuncentro Incentro Referencias Geometría Mecánica
206_0
Bosón de Higgs
El bosón de Higgs o partícula de Higgs es una partícula fundamental propuesta en el modelo estándar de física de partículas. Recibe su nombre en honor a Peter Higgs, quien, junto con otros, propuso en 1964 el hoy llamado mecanismo de Higgs para explicar el origen de la masa de las partículas elementales. El bosón de Higgs constituye el cuanto del campo de Higgs (la más pequeña excitación posible de este campo). Según el modelo propuesto, no posee espín, carga eléctrica o color, es muy inestable y se desintegra rápidamente: su vida media es del orden del zeptosegundo. En algunas variantes del modelo estándar puede haber varios bosones de Higgs. La existencia del bosón de Higgs y del campo de Higgs asociado serían el más simple de varios métodos del modelo estándar de física de partículas que intentan explicar la razón de la existencia de masa en las partículas elementales. Esta teoría sugiere que un campo impregna todo el espacio y que las partículas elementales que interactúan con él adquieren masa, mientras que las que no interactúan con él no la tienen. En particular, dicho mecanismo justifica la enorme masa de los bosones vectoriales W y Z, como también la ausencia de masa de los fotones. Tanto las partículas W y Z como el fotón son bosones sin masa propia. Los primeros muestran una enorme masa porque interactúan fuertemente con el campo de Higgs, y el fotón no muestra ninguna masa porque no interactúa en absoluto con el campo de Higgs. El bosón de Higgs ha sido objeto de una larga búsqueda en física de partículas. El 4 de julio de 2012, el CERN anunció la observación de una nueva partícula «consistente con el bosón de Higgs»; pero se necesitaría más tiempo y datos para confirmarlo. El 14 de marzo de 2013, el CERN, con dos veces más datos de los que disponía en su anuncio del descubrimiento en julio de 2012, se encontró que la nueva partícula se asemejaba aún más al bosón de Higgs. La manera en que interactúa con otras partículas y sus propiedades cuánticas, junto con las interacciones medidas con otras partículas, indican fuertemente que es un bosón de Higgs. Todavía permanece la cuestión de si es el bosón de Higgs del modelo estándar o quizás el más liviano de varios bosones predichos en algunas teorías que van más allá del modelo estándar. El 8 de octubre de 2013 se concedió a Peter Higgs, junto a François Englert, el Premio Nobel de Física «por el descubrimiento teórico de un mecanismo que contribuye a nuestro entendimiento del origen de la masa de las partículas subatómicas, y que recientemente fue confirmado gracias al descubrimiento de la predicha partícula fundamental por los experimentos ATLAS y CMS en el Colisionador de Hadrones del CERN». Introducción general En la actualidad, prácticamente todos los fenómenos subatómicos conocidos se explican mediante el modelo estándar, una teoría ampliamente aceptada sobre las partículas elementales y las fuerzas entre ellas. Sin embargo, en la década de 1960, cuando dicho modelo aún se estaba desarrollando, se observaba una contradicción aparente entre dos fenómenos. Por un lado, la fuerza nuclear débil entre partículas subatómicas podía explicarse mediante leyes similares a las del electromagnetismo (en su versión cuántica). Dichas leyes implican que las partículas que actúen como intermediarias de la interacción, como el fotón en el caso del electromagnetismo y las partículas W y Z en el caso de la fuerza débil, deben ser no masivas. Sin embargo, sobre la base de los datos experimentales, los bosones W y Z, que entonces solo eran una hipótesis, debían ser masivos. En 1964, tres grupos de físicos publicaron de manera independiente una solución a este problema, que reconciliaba dichas leyes con la presencia de la masa. Esta solución, denominada posteriormente mecanismo de Higgs, explica la masa como el resultado de la interacción de las partículas con un campo que permea el vacío, denominado campo de Higgs. Peter Higgs fue en solitario uno de los proponentes de dicho mecanismo. En su versión más sencilla, este mecanismo implica que debe existir una nueva partícula asociada con las vibraciones de dicho campo, el bosón de Higgs. El modelo estándar quedó finalmente constituido haciendo uso de este mecanismo. En particular, todas las partículas masivas que lo forman interaccionan con este campo, y reciben su masa de él. Hasta la década de 1980, no se pudo realizar ningún experimento en el que se utilizase la energía necesaria para comenzar a buscar dicho bosón, dado que la masa que se estimaba que podría tener era demasiado alta (unos cientos de veces la masa del protón). El Gran Colisionador de Hadrones (LHC) del CERN en Ginebra, Suiza, inaugurado en 2008 y cuyos experimentos empezaron en 2010, se construyó con el objetivo principal de encontrarlo, probar la existencia del bosón de Higgs y medir sus propiedades, lo que permitiría a los físicos confirmar esta piedra angular de teoría moderna. Anteriormente también se intentó en el LEP (un acelerador previo del CERN) y en el Tevatron (de Fermilab, situado cerca de Chicago en Estados Unidos). Historia Los físicos de partículas sostienen que la materia está hecha de partículas fundamentales cuyas interacciones están mediadas por partículas de intercambio conocidas como partículas portadoras. A comienzos de la década de 1960 se habían descubierto o propuesto un número de estas partículas, junto con las teorías que sugieren cómo se relacionaban entre sí. Sin embargo era conocido que estas teorías estaban incompletas. Una omisión era que no podían explicar los orígenes de la masa como una propiedad de la materia. El teorema de Goldstone, relacionado con la simetría continua dentro de algunas teorías, también parecía descartar muchas soluciones obvias. El mecanismo de Higgs es un proceso mediante el cual los bosones vectoriales pueden obtener masa invariante sin romper explícitamente la invariancia de gauge. La propuesta de ese mecanismo de ruptura espontánea de simetría fue sugerida originalmente en 1962 por Philip Warren Anderson y, en 1964, desarrollada en un modelo relativista completo de forma independiente y casi simultáneamente por tres grupos de físicos: por François Englert y Robert Brout; Las propiedades del modelo fueron adicionalmente consideradas por Guralnik en 1965 y Higgs en 1966. Los papeles mostraron que cuando una teoría de gauge se combina con un campo adicional que rompe espontáneamente la simetría del grupo, los bosones de gauge pueden adquirir consistentemente una masa finita. En 1967, Steven Weinberg y Abdus Salam fueron los primeros en aplicar el mecanismo de Higgs a la ruptura de la simetría electrodébil y mostraron cómo un mecanismo de Higgs podría incorporarse a la teoría electrodébil de Sheldon Glashow, en lo que se convirtió en el modelo estándar de física de partículas. Los tres artículos escritos en 1964 fueron reconocidos como un hito durante la celebración del aniversario 50.º de la Physical Review Letters. Sus seis autores también fueron galardonados por su trabajo con el Premio de J. J. Sakurai para física teórica de partículas (el mismo año también surgió una disputa; en el evento de un Premio Nobel, hasta 3 científicos serían elegibles, con 6 autores acreditados por los artículos). Dos de los tres artículos del PRL (por Higgs y GHK) contenían ecuaciones para el hipotético campo que finalmente se conocería como el campo de Higgs y su hipotético cuanto, el bosón de Higgs. El artículo subsecuente de Higgs, de 1966, mostró el mecanismo de decaimiento del bosón; solo un bosón masivo puede decaer y las desintegraciones pueden demostrar el mecanismo. En el artículo de Higgs el bosón es masivo, y en una frase de cierre Higgs escribe que "una característica esencial" de la teoría "es la predicción de multipletes incompletos de bosones escalares y vectoriales". En el artículo de GHK el bosón no tiene masa y está desacoplado de estados masivos. En los exámenes de 2009 y 2011, Guralnik afirma que en el modelo GHK el bosón es solo en una aproximación de orden más bajo, pero no está sujeta a ninguna restricción y adquiere masa a órdenes superiores y agrega que el artículo de GHK fue el único en mostrar que no hay ningún bosón de Goldstone sin masa en el modelo y en dar un completo análisis del mecanismo general de Higgs. Además de explicar cómo la masa es adquirida por bosones de vector, el mecanismo de Higgs también predice la relación entre las masas de los bosones W y Z, así como sus acoplamientos entre sí y con el modelo estándar de cuarks y leptones. Posteriormente, muchas de estas predicciones han sido verificados por precisas mediciones en los colisionadores LEP y SLC, confirmando abrumadoramente que algún tipo de mecanismo de Higgs tiene lugar en la naturaleza, pero aún no se ha descubierto la manera exacta por la que sucede. Se espera que los resultados de la búsqueda del bosón de Higgs proporcione evidencia acerca de cómo se realiza esto en la naturaleza. Arrinconando al bosón de Higgs Antes del año 2000, los datos recogidos en el Large Electron-Positron collider (LEP) en el CERN para la masa del bosón de Higgs del modelo estándar, habían permitido un límite inferior experimental de 114.4 GeV/c2 con un nivel de confianza del 95% (CL). El mismo experimento ha producido un pequeño número de eventos que podrían interpretarse como resultantes de bosones de Higgs con una masa de alrededor de 115 GeV, justo por encima de este corte, pero el número de eventos fue insuficiente para sacar conclusiones definitivas. En el Tevatrón del Fermilab, también hubo experimentos en curso buscando el bosón de Higgs. A partir de julio de 2010, los datos combinados de los experimentos del CDF y el DØ en el Tevatron eran suficientes para excluir al bosón de Higgs en el rango de 158 -175 GeV/c2 al 95% de CL. Resultados preliminares a partir de julio de 2011 extendieron la región excluida para el rango de 156-177 GeV/c2 al 95% de CL. La recopilación de datos y análisis en la búsqueda de Higgs se intensificaron desde el 30 de marzo de 2010, cuando el LHC comenzó a operar en 3,5 TeV. Resultados preliminares de los experimentos ATLAS y CMS del LHC, a partir de julio de 2011, excluyen un bosón de Higgs de modelo estándar en el rango de masa 155-190 GeV/c2 y 149-206 GeV/c2, respectivamente, en el 95% CL. A partir de diciembre de 2011 la búsqueda se había estrechado aproximadamente a la región de 115–130 GeV con un enfoque específico alrededor de 125 GeV, donde tanto el experimento del ATLAS y el CMS informan independientemente de un exceso de eventos, . Esto significaba que, en este rango de energía, se detectaron, en un número mayor que el esperado, patrones de partículas compatibles con la desintegración de un bosón de Higgs. Los datos eran insuficientes para mostrar si estos excesos se debían a fluctuaciones de fondo (es decir, casualidad aleatoria u otras causas), y su significado estadístico no era lo suficientemente grande como para sacar conclusiones o ni siquiera para contar formalmente como una "observación". Pero el hecho de que dos experimentos independientes hubieran mostrado excesos alrededor de la misma masa entusiasmó considerablemente la comunidad de la física de partículas. El 22 de diciembre de 2011, la colaboración de DØ también reportó limitaciones sobre el bosón de Higgs dentro del modelo estándar mínimamente supersimétrico (MSSM), una extensión del modelo estándar. Colisiones protón-antiprotón (pp) con una energía de masa de 1,96 TeV les había permitido establecer un límite superior para la producción del bosón de Higgs dentro de MSSM desde 90 hasta 300 GeV y excluyendo tan β > 20-30 para masas del bosón de Higgs por debajo de 180 GeV (tan β es la relación de los dos valores de la expectativa del vacío del doblete de Higgs). Por todo esto, a finales de diciembre de 2011, se esperaba que el LHC pudiera proporcionar datos suficientes para excluir o confirmar la existencia del bosón de Higgs del modelo estándar para finales de 2012, cuando se hubiera examinado la colección de datos de 2012 (en energías de 8 TeV). Durante la primera parte de 2012, los dos grupos de trabajo del LHC continuaron con las actualizaciones de los datos tentativos de diciembre de 2011, que en gran medida se estaban confirmando y desarrollando aún más. También estuvieron disponibles actualizaciones en el grupo que estaba analizando los datos finales desde el Tevatrón. Todo esto continuó para resaltar y estrechar la misma región de 125 GeV, que estaba mostrando características interesantes. El 2 de julio de 2012, la colaboración del ATLAS publicó análisis adicionales de sus datos de 2011, excluyendo los rangos de masas del bosón desde 111,4 GeV a 116,6 GeV, 119.4 GeV a 122.1 GeV, y 129.2 GeV a 541 GeV. Observaron un exceso de eventos correspondiente a las hipótesis de masas del bosón de Higgs de alrededor de 126 GeV con un significado local de sigma 2,9. En la misma fecha, las colaboraciones del DØ y el CDF anunciaron más análisis, que aumentaron su confianza. El significado de los excesos de energías entre 115–140 GeV se cuantificó como de desviaciones estándar de 2,9, correspondiente a una probabilidad de 1 en 550 de ser debido a una fluctuación estadística. Sin embargo, esto todavía quedó lejos de la confianza de sigma 5. Por tanto, los resultados de los experimentos LHC son necesarios para establecer un descubrimiento. Ellos excluyen los rangos de la masa de Higgs de 100–103 y 147–180 GeV. Se descubre un nuevo bosón En una nota interna del CERN, del 21 de abril de 2011, se contextualizaba el rumor de que los físicos del LHC habían detectado por primera vez el bosón de Higgs. La nota interna habla de la observación de una resonancia en los 125 GeV, justo la clase de fenómeno que se esperaría detectar si se hubiera encontrado un bosón de Higgs en ese rango de energía. Sin embargo, el elevado número de eventos observados, hasta treinta veces más de los predichos en el modelo estándar de física de partículas, sorprendía a los propios investigadores. A finales de 2011, dos de los experimentos llevados a cabo en el LHC aportaron indicios de la existencia del bosón. El 22 de junio de 2012 el CERN anunció un seminario cubriendo las conclusiones provisionales para ese mismo año, y poco después comenzaron a difundirse, en los medios de comunicación, rumores de que esto incluiría un anuncio importante, pero no estaba claro si se trataba de una señal más fuerte o de un descubrimiento formal. El 4 de julio de 2012 fueron presentados por el CERN, con la presencia de varios científicos, incluyendo al propio teórico del tema Peter Higgs, los resultados preliminares de los análisis conjuntos de los datos tomados por el LHC en 2011 y 2012 en los dos principales experimentos del acelerador (ATLAS y CMS). El CMS anunció el descubrimiento de un bosón con masa 125.3 ± 0.6 GeV/c2 a una significación estadística de sigma 4,9, y el ATLAS de un bosón con masa 126.5 GeV/c2 de sigma 5. Esto cumple con el nivel formal necesario para anunciar una nueva partícula que es "consistente con" el bosón de Higgs. El estudio de las propiedades y características de la nueva partícula necesita aún más tiempo para poder confirmar si realmente se trata del bosón de Higgs del modelo estándar o uno de los bosones de Higgs que predicen las teorías supersimétricas o si se trata de una nueva partícula desconocida. Se espera que los datos recopilados en el Gran Colisionador de Hadrones del CERN puedan esclarecer la naturaleza de este nuevo bosón. En recientes conferencias, los datos estudiados arrojan más luz sobre la naturaleza del bosón y, al menos de momento, confirman que se trata de un bosón de Higgs aunque habrá que esperar para saber cuál es. Propiedades Muchas de las propiedades del bosón de Higgs, como se describe en el modelo estándar, están totalmente determinadas. Como su nombre indica, es un bosón, tiene espín 0 (lo que se denomina un bosón escalar). No posee carga eléctrica ni carga de color, por lo que no interacciona con el fotón ni con los gluones. Sin embargo interacciona con todas las partículas del modelo que poseen masa: los cuarks, los leptones cargados y los bosones W y Z de la interacción débil. Sus constantes de acoplamiento, que miden cuán intensa es cada una de esas interacciones, son conocidas: su valor es mayor cuanto mayor es la masa de la partícula correspondiente. En la versión original del modelo estándar, no se incluía la masa de los neutrinos ni, por tanto, una interacción entre estos y el Higgs. Aunque esta podría explicar la masa de los neutrinos, en principio su origen puede tener una naturaleza distinta. El bosón de Higgs es además su propia antipartícula. El modelo estándar no predice sin embargo la masa del Higgs, que ha de medirse experimentalmente; tampoco el valor de algunos parámetros que dependen de esta: las constantes de acoplamiento del Higgs consigo mismo –que miden cuan intensamente interaccionan dos bosones de Higgs entre sí– o su vida media. En primera aproximación, la masa del Higgs puede tomar cualquier valor. Sin embargo la consistencia matemática del modelo estándar impone cotas inferiores entre 85 y 130 GeV/c2, y cotas superiores entre 140 y 650 GeV/c2. Los experimentos llevados a cabo en los aceleradores LEP y Tevatron, y posteriormente en el LHC, han impuesto cotas experimentales para el valor de la masa del Higgs –siempre asumiendo el comportamiento del modelo estándar–. En julio de 2012 los dos experimentos del LHC efectuando búsquedas del Higgs, ATLAS y CMS, presentaron resultados que excluyen valores de la masa fuera del intervalo entre 123–130 GeV/c2 según ATLAS, y 122,5–127 GeV/c2 según CMS (ambos rangos con un 95% de nivel de confianza). Además, anunciaron el descubrimiento de un bosón con propiedades compatibles con las del Higgs, con una masa de aproximadamente 125–126 GeV/c2. Su vida media con esa masa sería aproximadamente 10−22 s, una parte en diez mil trillones de un segundo. Alternativas Desde los años en los que fue propuesto el bosón de Higgs han existido muchos mecanismos alternativos. Todas las otras alternativas usan una dinámica que interactúa fuertemente para producir un valor esperado del vacío que rompa la simetría electrodébil. Una lista parcial de esos mecanismos alternativos es: Technicolor; es la clase de modelo que intenta imitar la dinámica de la fuerza fuerte como camino para romper la simetría electrodébil. El modelo de Abbott-Farhi; de composición de los bosones de vectores W y Z. Condensados de quarks top. Literatura, ficción y música A partir de la publicación del libro de divulgación científica La partícula de Dios: si el universo es la respuesta, ¿cuál es la pregunta? de Leon Lederman, en la cultura popular, el bosón de Higgs es llamado a veces "la partícula de Dios", aunque prácticamente todos los científicos, incluyendo Peter Higgs, lo consideran una exageración sensacionalista. En la película Ángeles y demonios, basada en el libro del mismo nombre (del autor Dan Brown), se menciona al bosón de Higgs de dicha forma. En la película Solaris protagonizada por George Clooney y Natascha McElhone se teoriza que los visitantes que materializan el océano viviente del planeta estarían formados por partículas subatómicas estabilizadas por un campo de Higgs. En el libro de ciencia ficción Flashforward, escrita por Robert J. Sawyer (1999), dos científicos desatan una catástrofe a nivel mundial mientras tratan de encontrar el esquivo bosón de Higgs. En el capítulo 21 de la 5.ª temporada (The Hawking Excitation) de la serie The Big Bang Theory, Sheldon Cooper cree haber descubierto una prueba de la existencia del bosón de Higgs. En la serie española El barco, el Gran Colisionador de Hadrones (LHC) del CERN en Ginebra, Suiza provoca, tras su puesta en marcha, el hundimiento de los continentes, dejando como únicos supervivientes a los tripulantes de Estrella Polar y con una sola esperanza de vida que se sitúa en un pequeño trozo de tierra perdido en la cara este del planeta. El grupo musical madrileño Aviador Dro en su disco editado en junio de 2012 y titulado La Voz de la Ciencia dedican un tema al Bosón de Higgs. El artista gallego Iván Ferreiro en su último disco publicado en 2013 y con título "Val Miñor-Madrid: Historia y cronología del mundo" dedica un tema al famoso Bosón de Higgs. En uno de los episodios de Los Pingüinos de Madagascar, se hace referencia a dicho Bosón. Kowalski, uno de los integrantes dice que "Solo hay una como esa en todo el universo", y la utiliza para clonar dodos. El artista australiano Nick Cave titula una de sus canciones Higgs Boson Blues en su disco Push the Sky Away, del 2013. BOSÓN D´HIGGS es una banda de Rock Vocal Neopsicodélico formada en Cuenca-Ecuador en 2014. Actualmente sus integrantes son Esteban Cañizares (Voces, Guitarras, Composiciones y Arreglos Vocales), Paul Galán (Guitarras, Voces y Arreglos), Fernando Marín (Baterías y Percusiones), Danny Galán (Bajo, Voces y Arreglos) y Jorge Pezantes (teclados y arreglos). La serie alemana original de Netflix Dark utiliza el bosón de Higgs como un dispositivo argumental que, tras su descubrimiento y estabilización, permite a los protagonistas viajar en el tiempo. Uno de los antagonistas del videojuego The Death Stranding se hace llamar Higgs y dice ser la partícula divina ya que es capaz de controlar y crear entes de otra dimensión a voluntad,aparte de ser capaz de moverse entre dicha dimensión y la que sería la nuestra. En la serie de manga japonés Dr. Stone, se hace mención del campo de Higgs para explicar el funcionamiento de los dispositivos petrificadores o "Medusas". En el se explica que la petrificación sucede cuando los seres humanos entran en contacto con las ondas de estos aparatos capaces de modificar el campo de Higgs. En la serie de manga japonés Knights of Sidonia, se utilizan las partículas de Higgs como fuente principal de energía para los robots gigantes o mechas que defienden la humanidad de su antagonista. Véase también Bosón Campo de Higgs Física de partículas Interacción Yukawa Superfuerza CERN E(38) Notas Referencias Enlaces externos The Higgs boson en exploratorium.edu . El bosón de Higgs en el Centro Nacional de Física de Partículas, Astropartículas y Nuclear (CPAN) Higgs Partículas elementales Masa Ciencia de 1964 Ciencia de 2012 CERN
210_0
Butomaceae
Las butomáceas (nombre científico Butomaceae Mirb.) son una familia de hierbas monocotiledóneas perennes, palustres o acuáticas, nativas de regiones templadas de Eurasia y naturalizadas en el noreste de Norteamérica. La familia está reconocida por sistemas de clasificación modernos como el sistema de clasificación APG III (2009) y el APWeb (2001 en adelante). En ellos la familia comprende un único género, Butomus, y una única especie, Butomus umbellatus, también conocida como junco florido. La familia puede ser reconocida por sus hojas largas triangulares, y su inflorescencia bracteada, axilar, con escapo y en umbela. Las flores son hermafroditas y hay dos verticilos de perianto, si bien los dos son petaloideos. El fruto es un folículo. Descripción Son hierbas perennes de hábitats húmedos, rizomatosas, con rizoma corto, con raíces fibrosas. Hojas basales o caulinares, revestimiento en la base, lineares, ensiformes o planas y dilatadas, todas, a menudo se estrechan arriba. Inflorescencia en forma de umbela, fasciculadas en cimas terminales; involucro con 2 o 3 brácteas. Flores actinomorfas, por lo general largo pediceladas. Estambres generalmente 6-9, raramente 5 o numerosos, muy variables, los externos suelen ser estériles; filamentos aplanados o lineales, cortos o largos, libre, hipóginas; anteras basifijas, 2 unicelular, ovadas a oblongas, longitudinalmente dehiscentes, introrse. Carpelos (3 -) 9 (o muchos), superiores, verticiladas, libres o connados basalmente, sésiles en un recipiente plano, estilos muy cortos, la terminal en cada carpelo; óvulos numerosos, anátropos, placentas parietales. Fruto de 6-muchos folículos con semillas diminutas, suaves, exalbuminosa; embrión recto. Taxonomía La familia fue descrita por Charles-François Brisseau de Mirbel y publicado en Histoire naturelle, générale et particulière, des plantes 8: 194. 1804. El género tipo es: Butomus L. La familia fue reconocida por el APG III (2009), el Linear APG III (2009) le asignó el número de familia 33. La familia ya había sido reconocida por el APG II (2003). La familia como aquí circunscripta posee un único género y una única especie: Butomus Butomus umbellatus L. - Junco florido Referencias Referencias citadas Enlaces externos Alismatales Familias de plantas Plantas acuáticas
234_0
Biología molecular
La biología molecular es la rama de la biología que tiene como objetivo el estudio de los procesos que se desarrollan en los seres vivos desde un punto de vista molecular. En su sentido moderno, la biología molecular pretende explicar los fenómenos de la vida a partir de sus propiedades macromoleculares. Dos macromoléculas en particular son su objeto de estudio: Los ácidos nucleicos, entre los cuales el más utilizado es el ácido desoxirribonucleico (ADN), el componente de los genes. Las proteínas, que son los agentes activos de los organismos vivos. Dentro del Proyecto Genoma Humano puede encontrarse la siguiente definición sobre la biología molecular: El estudio de la estructura, función y composición de las moléculas biológicamente importantes. Biología molecular y otras ciencias Esta área está relacionada con otros campos de la biología y la química, particularmente ingeniería genética y bioquímica. La biología molecular concierne principalmente al entendimiento de las interacciones de los diferentes sistemas de la célula, lo que incluye relaciones tales como las que existen entre el ADN y el ARN, la síntesis de proteínas, el metabolismo, y el cómo todas esas interacciones son reguladas para conseguir un correcto funcionamiento de la célula. La diferencia entre la química orgánica y la biología molecular o química biológica es que en la química biológica las moléculas de ADN tienen una historia y, por ende, en su estructura nos hablan de su historia, del pasado en el que se han constituido, mientras que una molécula orgánica, creada hoy, es solo testigo de su presente, sin pasado y sin evolución histórica. Características Al estudiar el comportamiento biológico de las moléculas que componen las células vivas, la Biología molecular roza otras ciencias que abordan temas similares: así, por ejemplo, juntamente con la Genética se interesa por la estructura y funcionamiento de los genes y por la regulación (inducción y represión) de la síntesis intracelular de enzimas y de otras proteínas. Con la Citología, se ocupa de la estructura de los corpúsculos subcelulares (núcleo, nucléolo, mitocondrias, ribosomas, lisosomas, etc.) y sus funciones dentro de la célula. Con la Bioquímica estudia la composición y cinética de las enzimas, interesándose por los tipos de catálisis enzimática, activaciones, inhibiciones competitivas o alostéricas, etc. También colabora con la Filogenética al estudiar la composición detallada de determinadas moléculas en las distintas especies de seres vivos, aportando valiosos datos para el conocimiento de la evolución.Sin embargo, difiere de todas estas ciencias enumeradas tanto en los objetivos concretos como en los métodos utilizados para lograrlos. Así como la Bioquímica investiga detalladamente los ciclos metabólicos y la integración y desintegración de las moléculas que componen los seres vivos, la Biología molecular pretende fijarse con preferencia en el comportamiento biológico de las macromoléculas (ADN, ARN, enzimas, hormonas, etc.) dentro de la célula y explicar las funciones biológicas del ser vivo por estas propiedades a nivel molecular. Métodos Los métodos que emplea esta nueva ciencia son fundamentalmente los mismos que la Biofísica, Bioquímica, y Biología. Utiliza los análisis químicos, cualitativo y cuantitativo, los conocimientos de la Química orgánica, la Biología de microorganismos y de virus, etc., pero revisten especial importancia los nuevos microanalíticos tanto físicos como químicos. Merecen destacarse la microscopía electrónica, que permite resoluciones que alcanzan los 10 Amstrongs; la difracción de rayos X, que determina la estructura y disposición espacial de los átomos de las macromoléculas; la ultracentrifugación diferencial, tanto analítica como preparativa, que permite separaciones antes imposibles; la cromatografía de gases, y, en fase líquida, la espectrografía de infrarrojos, la Química con isótopos trazadores, la espectrometría de masas, etc. Técnicas Clonación molecular La clonación molecular se utiliza para aislar y luego transferir una secuencia de ADN de interés a un vector plásmido. Esta tecnología de ADN recombinante se desarrolló por primera vez en la década de 1960. En esta técnica, una secuencia de ADN que codifica una proteína de interés se clona mediante reacción en cadena de la polimerasa (PCR), y/o enzima de restricción, en un plásmido (vector de expresión). El plásmido vector suele tener al menos 3 características distintivas: un origen de replicación, un Sitio de Clonación Múltiple (SCM) y un marcador selectivo (normalmente resistencia a antibióticos). Además, aguas arriba del SCM se encuentran la región promotora y la transcripción, que regulan la expresión del gen clonado. Este plásmido puede insertarse en células bacterianas o animales. La introducción de ADN en células bacterianas puede realizarse mediante transformación por captación de ADN desnudo, conjugación por contacto célula-célula o mediante transducción por vector viral. La introducción de ADN en células eucariotas, como las células animales, por medios físicos o químicos se denomina transfección. Existen diversas técnicas de transfección, como la transfección con fosfato cálcico, la electroporación, la microinyección y la transfección con liposomas. El plásmido puede integrarse en el genoma, dando lugar a una transfección estable, o puede permanecer independiente del genoma y expresarse temporalmente, lo que se denomina transfección transitoria. El ADN que codifica una proteína de interés se encuentra ahora dentro de una célula y la proteína puede expresarse. Existen diversos sistemas, como promotores inducibles y factores específicos de señalización celular, que ayudan a expresar la proteína de interés a niveles elevados. A continuación, se pueden extraer grandes cantidades de una proteína de la célula bacteriana o eucariota. La proteína puede someterse a pruebas de actividad enzimática en diversas situaciones, puede cristalizarse para estudiar su estructura terciaria o, en la industria farmacéutica, puede estudiarse la actividad de nuevos fármacos contra la proteína. Reacción en cadena de la polimerasa La reacción en cadena de la polimerasa (PCR) es una técnica extremadamente versátil para copiar ADN. En pocas palabras, la PCR permite copiar o modificar una secuencia de ADN específica de formas predeterminadas. La reacción es extremadamente potente y, en condiciones perfectas, podría amplificar una molécula de ADN hasta convertirla en 1.070 millones de moléculas en menos de dos horas. La PCR tiene muchas aplicaciones, como el estudio de la expresión génica, la detección de microorganismos patógenos, la detección de mutaciones genéticas y la introducción de mutaciones en el ADN. La técnica PCR puede utilizarse para introducir sitios de enzimas de restricción en los extremos de las moléculas de ADN, o para mutar bases particulares del ADN, este último es un método conocido como mutagénesis dirigida al sitio. La PCR también puede utilizarse para determinar si un fragmento concreto de ADN se encuentra en una biblioteca de ADNc. La PCR tiene muchas variaciones, como la PCR de transcripción inversa (RT-PCR) para la amplificación de ARN y, más recientemente, la PCR cuantitativa que permite la medición cuantitativa de moléculas de ADN o ARN. Electroforesis en gel La electroforesis en gel es una técnica que separa moléculas por su tamaño utilizando un gel de agarosa o poliacrilamida. Esta técnica es una de las principales herramientas de la biología molecular. El principio básico es que los fragmentos de ADN se pueden separar aplicando una corriente eléctrica a través del gel - debido a que la columna vertebral del ADN contiene grupos fosfato cargados negativamente, el ADN migrará a través del gel de agarosa hacia el extremo positivo de la corriente. Las proteínas también pueden separarse en función del tamaño utilizando un gel SDS-PAGE, o en función del tamaño y su carga eléctrica utilizando lo que se conoce como Electroforesis en gel 2D.. Contenido Al profundizar en cualquier fenómeno biológico y pretender explicar la naturaleza íntima de los procesos que determinan una propiedad o una función de los seres vivos, entramos inevitablemente en el campo de la Biología molecular. Veamos, por ejemplo el estudio de los genes. Las clásicas leyes de Mendel tienen su explicación inmediata en el conocimiento morfológico y funcional de los cromosomas. Pero cuando deseamos saber la composición y forma de actuación de un gen necesitamos penetrar a fondo en la estructura del ADN doble helicoide de Watson y Crick, el ordenamiento de bases púricas y pirimidímicas, es decir, la información genética. Al matizar la posibilidad de sintetizar una enzima por parte de un gen, debemos seguir el proceso de transmisión de esta información genética del ADN nuclear al ARN mensajero; la activación de los aminoácidos por el ARN transportador, la ordenación de estos aminoácidos activados sobre el ribosoma de acuerdo con la pauta prefijada por el ARN mensajero, la obtención de la estructura primaria de la enzima proteína. Todos estos temas son objeto de estudio de la Biología molecular. Pero hay más; la proteína, una vez sintetizada, debe ordenarse en el espacio según determinadas reglas que constituyen la conformación espacial específica (estructuras secundaria y terciaria) y a veces asociarse varias moléculas iguales o diferentes para constituir lo que se ha llamado estructuras cuaternaria y quinaria, de modo que las propiedades biológicas de la molécula como enzima están vinculadas a esta ordenación espacial compleja. La molécula proteica así organizada puede resultar ser una enzima que, en su actividad catalítica, es susceptible de sufrir activaciones o inhibiciones por determinadas sustancias, acciones éstas de trascendental importancia para la vida de la célula. Del mismo modo, la Biología molecular se interesa por la estructura química de las sustancias que componen las membranas biológicas y la ordenación de las enzimas que realizan acciones encadenadas, p. ej., dentro de las mitocondrias, núcleo y otros corpúsculos subcelulares, para explicar la mecánica de los ciclos y procesos bioquímicos determinados por la Topoquímica celular. Los procesos de reproducción de los virus, de las bacterias, y de los organismos superiores encierran multitud de incógnitas que trata de ir resolviendo la Biología molecular. Las mutaciones producidas por agentes físicos (rayos X, rayos gamma, calor, etc.) o químicos (sustancias mutágenas) tienen una explicación tanto más satisfactoria cuanto mejor se conoce la base molecular de los procesos de alteración en la estructura y ordenación de las bases nitrogenadas del ADN. El parentesco entre especies diferentes de seres vivos puede establecerse mediante el estudio individual comparado de las sustancias macromoleculares (proteínas) elaboradas por ellos. Así, de la secuencia de aminoácidos en la hemoglobina, mioglobina, citocromos, hormonas hipofisarias o insulina se induce el grado de proximidad filogenética, al demostrarse la evolución de la proteína por mutaciones progresivas. Multitud de fenómenos genéticos como selección natural, adaptación al ambiente, diferenciación de las especies, etc., tienen su última explicación a nivel molecular. Por último, la Biología molecular de microorganismos está aportando datos interesantes para la búsqueda de nuevos antibióticos y antimetabolitos, que permiten atacar eficaz y selectivamente a los gérmenes patógenos. Con todo esto no queremos afirmar que la Biología molecular sea una ciencia completa ni perfectamente elaborada. Todo lo contrario; los nuevos descubrimientos, al resolver una incógnita plantean muchos más interrogantes que son objeto de investigaciones futuras. Hoy día esta joven ciencia está en expansión explosiva. Por otro lado, la última y definitiva explicación de los comportamientos de las moléculas de los seres vivos requiere, para ser conocida en profundidad, enfrentarse con otras ramas de la ciencia tales como la Biofísica submolecular (orbitales, fuerzas de enlace, hibridación, etc.) e incluso la Física subatómica, para la cual se requiere un bagaje de conocimientos que jamás puede ser patrimonio de investigadores aislados, sino de equipos de trabajo científicamente heterogéneos, pero armónicamente conjuntados. Biólogos moleculares notables Francis Crick James Dewey Watson Rosalind Franklin Max Perutz François Jacob Christiane Nüsslein-Volhard Severo Ochoa Alberto Kornblihtt Linus Pauling Referencias Bibliografía C. PETIT y G. PRÉVOST, Genetique et évolution, «Journal of Molecular Biologyu, Londres 1967; C. A. VILLE, Biología, México 1966. (accedido el 15 de junio de 2009) Enlaces externos ADN Genética
247_0
Constelación
Una constelación, en astronomía, es el límite en que está dividida la bóveda celeste, cada una está conformada por la agrupación convencional de estrellas, cuya posición en el cielo nocturno es aparentemente invariable. Los pueblos, generalmente de civilizaciones antiguas, decidieron vincularlas mediante trazos imaginarios, creando así siluetas virtuales sobre la esfera celeste. En la inmensidad del espacio, en cambio, las estrellas de una constelación no necesariamente están localmente asociadas; y pueden encontrarse a cientos de años luz unas de otras. Además, dichos grupos son completamente arbitrarios, ya que distintas culturas han ideado constelaciones diferentes, incluso vinculando las mismas estrellas. Algunas fueron ideadas hace muchos siglos por los pueblos que habitaban las regiones del Medio Oriente y el Mediterráneo. Otras, las que están más al sur, recibieron su nombre de los europeos en tiempos más recientes al explorar estos lugares hasta entonces desconocidos por ellos, aunque los pueblos que habitaban las regiones australes ya habían nombrado sus propias constelaciones de acuerdo a sus creencias. Se acostumbra a separar las constelaciones en dos grupos, dependiendo el hemisferio celeste donde se encuentren: constelaciones septentrionales, las ubicadas al norte del ecuador celeste constelaciones australes, al sur. A partir de 1928, la Unión Astronómica Internacional (UAI) decidió reagrupar oficialmente la esfera celeste en 88 constelaciones con límites precisos, tal que todo punto en el cielo quedara dentro de los límites de una figura. Antes de dicho año, eran reconocidas otras constelaciones menores que luego cayeron en el olvido y dejaron de ser reconocidas; muchas, ya no se recuerdan. El trabajo de delimitación definitiva de las constelaciones fue llevado a cabo fundamentalmente por el astrónomo belga Eugène Joseph Delporte y publicado por la UAI en 1930. Historia Debido al tiempo transcurrido y a la falta de registros, es difícil conocer el origen preciso de las constelaciones más antiguas. Se cree que el interés de los antiguos pueblos por la disposición de las estrellas tuvo motivos fundamentalmente prácticos, usualmente con propósitos agrícolas, de viaje y religiosos. Se usaban para medir el tiempo y las estaciones. Servían de orientación a navegantes y mercaderes cuando realizaban travesías durante la noche, ya fuese por mar o por el desierto. Así, imaginando figuras con las cuales relacionar los grupos de estrellas les sería más fácil y seguro recordar las rutas a seguir. Además, creaban narraciones de lo que representaban, se encuentran recogidas en la mitología y la astrología. Tal parece que Leo, Taurus, y Escorpio, existían desde antiguo en la cultura de Mesopotamia, unos 4000 años antes de la era común, aunque no recibían esos nombres necesariamente. La constelación de Orión era conocida como Sahu en el Antiguo Egipto. El griego Homero la menciona con su nombre actual en su obra Odisea que data del siglo IX a. C. El Zodíaco, dividido en doce constelaciones, surgió en Babilonia durante el reinado de Nabucodonosor II siglo VI a. C., vinculado a las doce lunaciones anuales. Lo adoptará la cultura griega, dándole a las constelaciones los actuales nombres. Así, de las 88 constelaciones adoptadas por la UAI, casi la mitad provienen de la imaginación de los astrónomos de la antigua Grecia. La compilación exhaustiva de constelaciones más antigua conocida se remonta a Claudio Ptolomeo, quien en el siglo II a. C. presentó un catálogo de 1022 estrellas, agrupadas en 48 constelaciones, en su obra Almagesto; la obra fue escrita en griego, con el título Ἡ μεγάλη Σύνταξις (He Megále Síntaxis: ‘el gran tratado’). Dicho trabajo, que será la base de muchos resúmenes astronómicos occidentales posteriores, hasta finales de la Edad Media, solo incluía las estrellas visibles desde Alejandría, lugar desde donde Ptolomeo llevó a cabo sus observaciones. Constelaciones chinas Las constelaciones chinas son uno de los agrupamientos estelares más antiguos del mundo. Estas son muy diferentes de las modernas constelaciones reconocidas por la UAI (que se basan en la astronomía griega); esto se debe principalmente a que el desarrollo de la astronomía china fue independiente, aunque paralelo a la griega. Los astrónomos chinos dividieron el cielo en 31 regiones, llamados 3 recintos (三垣 sān yuán) y 28 mansiones (二十八宿 èrshíbā xiù). Los tres recintos ocupan la zona cercana al polo norte, por lo que en las latitudes altas se pueden ver durante todo el año, mientras las veintiocho mansiones ocupan la zona del zodiaco, por lo que pueden ser estimados como el equivalente a las doce constelaciones zodiacales occidentales. Contrariamente a la astronomía occidental, las veintiocho mansiones no reflejan el movimiento (aparente) del Sol sino el movimiento de la Luna en su recorrido mensual alrededor de la Tierra. Los tres Recintos y las 28 Mansiones se dividen además en 283 asterismos. Cada estrella se asigna a uno de los asterismos e incluso algunos de ellos solo poseen una estrella. Tradicionalmente, una estrella lleva el nombre de su asterismo combinado con un número. El cielo alrededor del polo sur celeste se desconocía en la antigua China. Por lo tanto, no se incluyó como parte de los tres recintos y las 28 mansiones. Sin embargo, a finales de la dinastía Ming, Xu Guangqi introdujo otros 23 asterismos basado en las cartas estelares occidentales. Constelaciones hindúes Las constelaciones de la astronomía hindú se denominan nakshatra (नक्षत्र) o mansión lunar, que corresponden a cada una de las 27 divisiones del cielo, identificadas por la(s) estrella(s) más destacada(s) dentro de las mismas, por las cuales pasa la Luna durante su ciclo mensual. Por lo tanto, cada uno de ellos representa una división de la eclíptica similar a la del zodiaco occidental (13° 20' en lugar de los 30° para cada signo del zodiaco). El periodo orbital de la Luna es de 27.3 días, por lo que la Luna tarda aproximadamente un día para pasar a través de cada nakshatra. El punto de partida para la nakshatras es el punto de la eclíptica directamente opuesto a la estrella Spica llamado Chitrā (que correspondería aproximadamente al comienzo de Aries). La eclíptica se divide en cada uno de los nakshatras hacia el este a partir de este punto. La lista de Nakshatras se encuentra en los textos védicos, y también en el Shatapatha Brahmana. El primer texto de astronomía que enumera es el Vedanga Jyotisha de Lagadha. En la mitología hindú los Nakshastras fueron inventados por Daksha, y se personifican como las hijas de la deidad y las esposas de Chandra, el dios de la luna. Cada uno de los nakshatras se rige por uno de los señores de los nueve graha en la siguiente secuencia: Ketu (nodo lunar) Shukra (Venus) Ravi o Suria (Sol) Chandra (Luna) Mangala (Marte) Rahu (nodo norte lunar) Gurú o Bríjaspati (Júpiter) Shani (Saturno) y Budha (Mercurio). Este ciclo se repite tres veces para cubrir los 27 nakshatras. Constelaciones incas Dentro de la Astronomía Inca, existían dos tipos de constelaciones: Las Constelaciones Estelares o Brillantes constituidas por estrellas individuales de magnitudes muy brillantes, que por sí mismas constituían una “constelación” y de otras que agrupadas o unidas al modo occidental (de estrella a estrella) forman figuras en el cielo nocturno. El segundo tipo de constelaciones lo constituyen las condensaciones de polvo y gas interestelar que a manera de manchas oscuras ocupan espacios dentro de la Vía Láctea formando las llamadas Constelaciones Oscuras o Negras. Los astrónomos de la civilización inca identificaron diversas áreas oscuras de la Vía Láctea como animales, y los asociaron con la temporada de lluvias; debido a esto se les conoce como «constelaciones oscuras». Estas áreas son las que comúnmente se denominan nebulosas oscuras. Es precisamente en Cuzco donde muchos investigadores han encontrado documentos de colonizadores españoles que describen el Templo del Sol, del cual irradiaban cuarenta y un ejes llamados ceques, cuya disposición implicaba lineamientos geománticos o astronómicos, que definían el valle en 328 huacas las cuales cumplían funciones rituales y políticas. Los Incas conocían la revolución sinódica de los planetas, e igualmente construyeron un calendario lunar para las fiestas religiosas y uno solar para la agricultura. Para tal propósito utilizaron elementos como montículos alrededor de los pueblos para realizar astronomía observacional. El calendario consistía en un año solar de 365 días, repartidos en 12 meses de 30 días y con 5 días intercalados. Se sabe que el calendario era determinado observando al Sol y a la Luna. Para fijar las fechas exactas del año y meses, Pachacútec dispuso la edificación de 12 torres o pilares localizados al este de la llacta del Cuzco, llamados sukanqas. Los Incas daban mucha importancia a las constelaciones y estaban muy interesados en la medición del tiempo para fines agrícolas. Poseían sus propias constelaciones y para ellos la Vía Láctea era oscurecida por sacos de carbón. La astronomía jugó un papel muy importante para la construcción de sus ciudades. Dentro de las constelaciones Estelares o Brillantes, cabe mencionar a las siguientes (Nombre occidental / Nombre quechua / Traducción al español): 1. Sirio = Willka Wara (Estrella Sagrada) 2. Canopus = Qolla Wara (Estrella de los Qollas) 3. Achernar = K’ancha Wara (Estrella brillante) o Qatachillay (hay dos interpretaciones) 4. Antares = Choqechinchay (El felino dorado) 5. Aldebarán = Chuchu Qoyllur (Estrella que va adelante o al centro) o Chukchu Qoyllur (Estrella del Paludismo o terciana) 6. Cúmulo Abierto M7 = Saramama (Madre Maíz) o Saramanka (Olla de Maíz) 7. Cúmulo Abierto M45, Las Pléyades = Qollqa (Almacén, depósito) o Qoto (Manojo) 8. Cúmulo Abierto, Las Híades = Qollqa 9. Lira = La pequeña Llama de plata o Urkuchillay 10. Escorpión = Choqechinchay o Amaru (Serpiente sagrada) (hay dos interpretaciones) 11. Orión = Hatun Chakana (La Chakana grande) o Llaka Unancha – Llakachuqui (hay dos interpretaciones) 12. Cruz del Sur = Huch’uy Chakana (La pequeña Chakana) 13. Pegaso = Thunawa (Batán para la molienda) 14. Cola del Escorpión = Qollqa 15. Centro de la Galaxia = Kukamama o Kukamanka (Madre Coca u Olla de Coca) 16. Cola de la Osa Mayor = Yakumama (Serpiente gigante de la selva) Dentro de las Constelaciones Oscuras o Negras, podemos mencionar: (nombre quecha / traducción al español) 1. Yakana o Qatachillay = La Llama Sideral 2. Uña Llama o Huch’uy Llama = La cría de la Llama 3. Atoq = el Zorro 4. Michiq = El Pastor 5. Kuntur = El Cóndor 6. Lluthu = La Perdiz (dicen algunas fuentes que hay dos) 7. Hanp’atu = El Sapo 8. Mach’aqway = La Culebra (no confundir con el Amaru) 9. Ukhumari = El Oso (confusamente ubicada) 10. Taruka o Lluych’u = El Venado (confusamente ubicada) 11. Puma (confusamente ubicada) 12. Urk’uchillay = La Llama Negra (macho) Otras culturas precolombinas Acerca de los mexicas, para quienes la palabra citlalli significaba “estrella”, se sabe que visualizaban en la bóveda celeste por lo menos unas 30 constelaciones. De las que se mencionan en las fuentes tenemos Citlaltianquiztli (El Mercado), Citlalxonecuilli (“Pie torcido”, una especie de pan enroscado), Citlalcólotl o Colotlixáyac (El Escorpión), Citlallachtli (La Cancha del juego de pelota “tlachtli”), Citlalmamalhuaztli, (Los Palos Saca-fuego), Citlalocélotl (El Jaguar), Citlalozomatli (El Mono) y Citlalcóatl (La Serpiente). De los trabajos en los que se reconstruye la bóveda celeste podemos citar a Hermann Beyer (1910), Escalona Ramos (1940) y Francisco Hernández (1989). También se ha planteado la posibilidad que estuvieran representadas las veintenas como constelaciones, así lo ha dicho Yólotl González (1979) siguiendo a Diego Durán. Otros autores creen que así mismo, estaba plasmado un “zodíaco” de signos nahuas, esto último muy poco probable. Los muiscas reconocían la relación entre la salida heliaca de Sirio con el comienzo de la temporada de lluvias. Los mocovíes consideraban a la Vía Láctea como un camino, al que llamaban "nayic", que se adentraba en el monte y en el que a su largo se hallaba jalonado de numerosos asterismos relacionados con relatos de encuentros de chamanes con seres poderosos o "dueños", con los cuales pactaban para poder sobrevivir. Por los movimientos de la Galaxia los mocovíes determinaban los instantes de la noche y los ciclos anuales.En el caso particular de la zona de la Cruz del Sur, el puntero y sus estrellas cercanas representaban dos perros de caza y la cruz del sur en sí el cuerpo central del ñandú acechado, mientras que las restantes estrellas cercanas a la cruz completaban la figura del animal. En la Patagonia septentrional, hacia el y , se imaginaban que la Vía Láctea era la representación de un campo de cacería de ñandúes, donde los cazadores utilizaban boleadoras representadas por el "puntero" (α y β centauri) mientras que las Nubes de Magallanes representaban los cuerpos de los animales cazados y Las Pléyades (conocida en la región como Los siete cabritos) eran el nido del ñandú. Otras culturas Otra cultura aborigen que reconocía figuras oscuras en el cielo eran los australianos, especialmente aquellos que vivían en el centro del continente. También los aborígenes sudamericanos consideraban las manchas oscuras de la Vía-Láctea (nubes con polvo interestelar que absorbe la luz de las estrellas) para formar sus "constelaciones". Una de sus figuras más representativas es "El Emú en el cielo", que abarcaba desde el Escorpión hasta la Cruz del Sur. Constelaciones zodiacales El zodíaco es una franja del cielo por donde, aparentemente, transitan el Sol y los planetas. Durante el dicha región fue dividida en doce partes iguales (una por cada mes del año) a las cuales dieron el nombre de la constelación más próxima (asterismos que muy bien podrían haber existido antes de la invención del zodíaco). Estas constelaciones son tradicionalmente las siguientes: Aries, Taurus, Gemini, Cáncer, Leo, Virgo, Libra, Scorpius, Sagittarius, Capricornus, Aquarius y Pisces. Tras el establecimiento de los límites de las constelaciones en 1930, el Sol también cruza las constelaciones de Cetus y Ofiuco. Constelaciones de Ptolomeo Además de las doce constelaciones del Zodíaco antes presentadas, Ptolomeo recogió en su inventario otras 36 figuras: Andrómeda (Andrómeda), la princesa Aquila, el águila Ara, el altar Argo Navis, el navío Argo. Auriga, el cochero Bootes, el boyero o pastor de bueyes Canis Major (Can Mayor) Canis Minor (Can Menor) Casiopea (Casiopea), la reina Centaurus (Centauro) Cefeo (Cefeo), el rey Cetus, la ballena o monstruo marino Corona Australis (Corona Austral), la corona del sur Corona Borealis (Corona Boreal), la corona del norte Corvus, el cuervo Cráter, la copa Cygnus, el cisne Delphinus, el delfín Draco, el dragón Equuleus, el pequeño caballo Eridanus, el río Erídano, un río mitológico Hércules (Hércules), el héroe Hidra, la hidra o serpiente de mar, un monstruo mitológico Lepus, la liebre Lupus, el lobo Lyra, la lira Ophiuchus (Ofiuco), el portador de la serpiente o Serpentario Orión (Orión), el cazador Pegaso (Pegaso), el caballo alado Perseo (Perseo), otro héroe Piscis Austrinus (Pez Austral), el pez del sur Sagitta, la flecha Serpens la serpiente (Ofiuco divide esta constelación en dos partes: Serpens Caput, la cabeza de la serpiente, y Serpens Cauda, la cola de la serpiente Triangulum el triángulo La Osa Mayor. Ursa Minor (Osa Menor) Las 48 constelaciones inscritas por Ptolomeo en el Almagesto fueron las únicas reconocidas en el mundo occidental hasta el final de la Edad Media. Con excepción de Argo Navis, que fuera dividida en cuatro constelaciones más tarde, todas ellas fueron adoptadas sin cambios por la Unión Astronómica Internacional. Constelaciones modernas El mundo occidental perdió el gran tratado astronómico de Ptolomeo por muchos años. Fueron los astrónomos árabes quienes heredaron el Almagesto (de ellos proviene el nombre por el cual se conoce generalmente) y expandieron sus observaciones. Estos destacados estudiosos del cielo añadieron algunas constelaciones que ya no se utilizan actualmente y expandieron otras ya existentes (como Eridanus, a la cual asignaron otra serie de estrellas más al sur). Su propósito fue describir e incorporar estrellas que no eran visibles desde Alejandría, pero sí desde el sur de sus dominios. Tras muchos años, hacia fines de la Edad Media, la obra de Ptolomeo es recuperada en Europa a través de traducciones en latín de fuentes árabes. A partir del , cuando de Europa salieron navegantes a explorar los mares del sur, los marinos se encontraron, así mismo, con un cielo desconocido, cuyas estrellas requerían ser identificadas por ellos. Por lo tanto, y para que sirvieran de ayuda en la navegación, se idearon nuevas constelaciones. Johann Bayer y «Uranometría» En 1603, el astrónomo alemán Johann Bayer publicó su obra Uranometria, el primer atlas astronómico en cubrir toda la esfera celeste. Además de incluir las 48 constelaciones de Ptolomeo, Bayer añadió 12 adicionales, trazadas para el hemisferio sur, único lugar en el mundo donde se veían. Las mismas habían sido originalmente cartografiadas por el navegante neerlandés Pieter Dirkszoon Keyser, asistido por Frederick de Houtman, durante un viaje por los mares del sur entre 1595 y 1596 (año en que muere Keyser en la expedición). La inclusión de estos nuevos grupos en el atlas de Bayer —la obra maestra de la época— aseguró su permancencia en la lista de constelaciones reconocidas. Estas fueron: Apus, el ave del paraíso Chamaeleon, el camaleón Dorado, el pez Grus, la grulla; se conoció como Phoenicopterus, el flamenco, en Inglaterra durante el Hydrus, la hidra macho Indus, el indio americano Musca, la mosca Pavo real Phoenix, el ave fénix Triangulum Australe, el triángulo del sur Tucana, el tucán Volans, el pez volador Los nombres tan exóticos (para la época) de estas nuevas constelaciones, muchas de las cuales reflejaban las nuevas realidades descubiertas durante las grandes exploraciones de esos años les aseguraron un éxito inmediato. Tan es así que rápidamente se incorporaron a la lista de constelaciones antiguas y se siguen usando al presente. La obra de Bayer trajo otro cambio de percepción en cuando a qué es una constelación. En el pasado, los griegos y demás pueblos de la antigüedad solo reconocían como parte de una constelación aquellas estrellas que se usaban para trazar las figuras legendarias. Lo demás simplemente era espacio vacío. Bayer, en cambio, con sus planos, comienza a asignar a todo punto en el cielo su lugar como parte de una constelación. Otras creaciones europeas A partir de Uranometria otros astrónomos europeos se vieron tentados en imponer sus propias creaciones, aunque no todos lograron el mismo éxito de Bayer. En 1624, el también astrónomo alemán Jakob Bartsch introdujo cinco nuevas constelaciones entre las ya existentes: Monoceros, el unicornio Camelopardalis, la jirafa Crux, la cruz Tigris, el río Tigris Jordanus, el río Jordán Estas constelaciones también se acreditan a Pieter Platevoit (Petrus Plancius). Solo las tres primeras se incorporaron definitivamente a la lista de constelaciones actuales; las demás desaparecieron rápidamente. Para la misma época, Tycho Brahe elevó al rango de constelación el antiguo asterismo de Coma Berenices, la Cabellera de Berenice, creada de estrellas pertenecientes anteriormente a Leo y Virgo. En 1643, Anton de Rheita, tratando de cristianizar un poco el panteón estelar, ampliamente pagano, imaginó una figura de Jesús entre Leo e Hydra, pero dicha nueva constelación no tuvo buena acogida. Él mismo también propuso una Mosca (Musca Borealis) al lado de Aries, que más tarde fuera rebautizada como Lilium (Flor de lis) durante el reinado de Luis XIV, el "Rey Sol". Es entonces cuando nombrar constelaciones se convirtió en un juego de corte, con el que los proponentes pretendían lograr la gracia de la monarquía. En Francia, en 1679, Augustin Royer creó la constelación Columba, separando parte de la constelación Canis Major. Además, identificó un grupo de estrellas entre Andrómeda, Cefeo y Pegaso, al cual nombró como el Cetro. En Prusia, el astrónomo real Gottfried Kirch creó un segundo Cetro al sur de Eridanus, con el fin de hacer lo propio por su monarca. No obstante, ninguno de estos intentos de reivindicación real se impuso en la comunidad, por lo que los grupos nunca lograron el apoyo que necesitaba para integrarse a la lista de constelaciones reconocidas. Johannes Hevelius Algunos años más tarde, para 1690, desde la ciudad de Danzig (hoy Gdańsk) en la región polaca de Pomerania, Johannes Hevelius propuso otras constelaciones: Canes Venatici, los perros de caza Lacerta, la lagartija, asterismo que correspondía al Cetro de Augustin Royer Leo Minor, el pequeño león Lynx, el lince, un grupo de estrellas tan tenues, que el propio Hevelius decía que se necesitaban los ojos de un lince para poder verlas Sextans, el sextante Vulpecula, la pequeña zorra Scutum (Sobieski), el Escudo de Sobieski; esta es la única constelación moderna que responde a un personaje histórico real (Jan III Sobieski, rey de Polonia), pero como generalmente solo se le conoce como Scutum, la relación con este monarca pasa totalmente desapercibida. A diferencia de las anteriores, estas nuevas propuestas no estaban asociadas a algún monarca. Por ello, probablemente, lograron la aceptación de público con mayor facilidad. La excepción fue Scutum, que tuvo que perder el apellido para ser aceptada debidamente (hoy no se recuerda, para nada, que una vez tuvo abolengo). Hevelius también propuso otros grupos que no tuvieron la suerte de estas siete. Estas fueron: Cerberus, el Cerbero o Cancerbero de la mitología Mons Maenalus, la montaña Triangulum Minor, el pequeño triángulo Invenciones de Nicolás Lacaille Nicolas Louis de Lacaille, un abad, astrónomo y matemático francés, que durante los años 1750 y 1751 vivió en el cabo de África del Sur, se propuso proseguir con la relación sistemática de las estrellas del cielo del hemisferio sur. En su obra Coelum australe stellíferum, publicada póstumamente en 1763, incluyó otros asterismos con el fin de cubrir espacios que todavía no respondían a constelación alguna. Las invenciones de Lacaille se diferencian de todas las anteriores, pues honran las creaciones del ingenio humano (que era la mentalidad de su época), en vez de animales y figuras mitológicas. Antlia, la máquina neumática Circinus, el compás Caelum, el buril Fornax, el horno Horologium, el reloj Mensa, la mesa o meseta Microscopium, el microscopio Norma, la regla Octans, el octante Pictor, la paleta del pintor Reticulum, la retícula Sculptor, el taller del escultor Telescopium, el telescopio, el primer grupo en honrar a aquellos que se dedican y se han dedicado al estudio de los astros. A Lacaille también se debe el desmantelamiento de Argo Navis en cuatro constelaciones menores, que son las que llegan hasta nuestros días: Carina, la quilla Puppis, la popa Vela, la vela Pyxis, la brújula Constelaciones australes Entre 1877 y 1879 el Observatorio Nacional Argentino (hoy Observatorio Astronómico de Córdoba) publica el atlas y catálogo de la célebre Uranometría Argentina, que contienen las posiciones y brillo de todas las estrellas visibles a simple vista entre el polo Sur y la declinación -10°. En este trabajo se realiza el ordenamiento y sistematización de las denominaciones estelares y límites de las constelaciones, los cuales fueron definidos inequívocamente. El director del observatorio, Dr. Benjamin A. Gould, consulta con diversos astrónomos y lleva adelante un pormenorizado análisis y comparación de los límites constelacionales sugeridos por Bayer, Nicolas Louis de Lacaille y John Herschel. Considera especialmente las sugerencias efectuadas por el último de estos astrónomos. Como producto de esta extensa y detallada investigación resuelve el tema de las denominaciones de las constelaciones y sus fronteras del siguiente modo: Conserva únicamente las constelaciones propuestas por Ptolomeo y Johannes Hevelius, además de las 14 que fueron introducidas por Nicolas Louis de Lacaille, en oportunidad de la expedición astronómica que realizó entre 1751 y 1752 en Cabo de Buena Esperanza La gigantesca y célebre constelación Argo es definitivamente dividida en tres: Carina, Puppis y Vela. Uniformiza los nombres utilizando la forma latina y una sola palabra siguiendo un criterio después adoptado definitivamente. Solo tres casos tienen dos nombres debido a que tienen que distinguirse de una constelación boreal con igual denominación, y también Canis Major para diferenciarla de Canis Minor. Arregla los límites siguiendo meridianos de ascensión recta y paralelos de declinación, y cuanto esto no era posible, con curvas regulares aproximadas en lo posible a círculos mayores. Utiliza en las coordenadas el equinoccio de 1875.0. Constelaciones perdidas Además de los grupos que se han mencionado previamente, que fueron propuestos, mayormente, durante el , y que nunca gozaron del aval de la comunidad, hay otra serie de asterismos que tuvieron una existencia muy efímera. Un caso muy particular es el de la constelación de Antínoo (o Antinous), probablemente la única constelación antigua que cayó en desuso. Se supone que Antínoo era la figura de un joven griego a quien el emperador Adriano favorecía. Sus estrellas correspondían a un pequeño grupo al sur de Aquila, el águila. Según versa la historia, Adriano creó esta constelación en el año 132 tras la muerte del adolescente (quien supuestamente se sacrificó para salvar la vida al emperador). Otras constelaciones perdidas son: Apis, la abeja (1603): esta se convirtió, posteriormente, en Musca Australis, nuestra actual Musca. Cancer Minor, el pequeño cangrejo (1613) Cerberus, el perro que guarda las puertas del infierno. Custos Messium, el guardián de la cosecha (1775) Felis, el gato (1805) Frederici Honores, la gloria de Frederick, rey de Prusia (1787) Gallus, el gallo (c. s. XVII) Globus Aerostaticus, el globo aerostático (1798) Jordanus, el río Jordán Lochium Funis, creada por Johann Elert Bode utilizando algunas estrellas de Pyxis (solo él la reconoció) Machina Eléctrica, la máquina eléctrica o generador de electricidad (1800) Malus, el mástil de la Nave de Argos Mons Maenalus, la montaña Musca Borealis, la mosca boreal Noctua, el búho (el mismo asterismo que Turdus Solitarius) Officina Typographica, la imprenta (c. s. XVIII) Phoenicopterus, el flamenco (1787) Polophylax, el guardián del polo (c. s. XVII) Psalterium Georgii, el arpa del rey Jorge III (1781) Quadrans Muralis, el cuadrante (1795) Ramus Pomifer, la rama del manzano Robur Carolinum, el roble de Carlos (1679) Sceptrum Brandenburgicum, el cetro de Brandeburgo (1688) Sceptrum et Manus Iustitiae, literalmente cetro y mano de la justicia (1679) Solarium, el reloj solar Tarandus vel Rangifer, el venado o ciervo (1736) Taurus Poniatovii, el toro de Poniatowski, rey de Polonia (1777) Telescopium Herschelii, el telescopio de Herschel Testudo, la tortuga Tigris, el río Tigris Turdus Solitarius, el tordo (o mirlo) solitario (1776) Triangulum Minor, el pequeño triángulo Vespa, la avispa (c. s. XVII) Las constelaciones en la actualidad Los límites de las constelaciones, en su gran mayoría, siguen los trazos, igualmente imaginarios, impuestos por la Unión Astronómica Internacional de 1928 a 1930. Estas fronteras utilizan como guía las líneas de declinación y ascensión recta para la época 1875,0 (es por ello que no hay líneas diagonales). Desde entonces, y debido a la precesión (el desplazamiento del eje de la Tierra con respecto a las estrellas), esos límites se han desplazado, pero el área cubierta por cada signo se ha mantenido igual. Según esos límites, la Cruz del Sur es la constelación más pequeña del cielo: con solo 68 grados cuadrados cubre apenas el 1/600 del cielo. La más grande es Hydra, que con 1300 grados cuadrados cubre el 3% del total celeste. Y las tres constelaciones más grandes cubren el 10% del cielo, o sea, tanto como las 27 más chicas. En nuestros días, las constelaciones han perdido la importancia que años atrás poseían. Ahora los astrónomos profesionales se refieren a los objetos por su posición en la esfera celeste, usando el sistema de coordenadas. En términos generales, solo los astrónomos aficionados siguen conociendo y estudiando las constelaciones. ¿Cómo observar las constelaciones? Para poder identificar correctamente las constelaciones, es necesario poder ver las estrellas que dibujan sus figuras. Las personas que viven en las ciudades o áreas limítrofes ven muy pocas de ellas porque la contaminación lumínica afecta adversamente la visibilidad de los astros más tenues. Se recomienda buscar un lugar oscuro. Es necesario ante todo, si queremos aprenderlas de manera rigurosa y correcta, que empecemos por una, es decir la primera que hemos visto y reconocido en nuestra vida. A partir de aquí, nos vamos trasladando con la vista a las constelaciones que esta tiene a su lado, siempre y cuando tengamos un mapa del cielo nocturno o una guía para simple vista (se llama así a lo que necesitamos para identificar los dibujos del papel en la esfera celeste; se puede comprar una en cualquier librería). Una vez hemos identificado una constelación en el cielo nocturno, las demás las sacaremos automáticamente, lo difícil es la primera, debemos de buscar a una persona que conozca una, solo una, con eso bastará para empezar en el mapa. Las constelaciones y ejemplos En la antigüedad, solo unas pocas estrellas brillantes recibieron nombres propios (inclusive, algunas eran consideradas constelaciones en sí mismas). Posteriormente, los árabes, con su dedicación a la observación astronómica, asignaron nombres a muchas otras. En su gran mayoría respondían a la posición que corresponde a cada astro dentro de su constelación. Aldebarán, la estrella más brillante de Tauro, proviene del árabe al-Dabaran (الدبران), que significa ‘el que sigue’ (a las Pléyades). En esa misma constelación también se encuentra Alnath (o Elnath), del árabe an-Nath (النطح), que significa ‘[la punta de] el cuerno’. Además de los nombres propios tradicionales (de origen griego, latino o árabe), las estrellas reciben un nombre formado por una letra del alfabeto griego en minúscula, siguiendo en orden decreciente de su magnitud aparente (en términos generales, aunque la secuencia no se aplica en algunos casos). Este sistema fue iniciado por Johann Bayer a comienzos de . Más tarde, John Flamsteed asignó números arábigos para identificar las estrellas de cada constelación. En ambos sistemas, a las letras o números sigue el genitivo latino del nombre de la constelación. Así, Aldebarán y Alnath son también conocidas como Alfa (α) y Beta (β) Tauri en el sistema de Bayer, u 87 y 112 Tauri en el sistema de Flamsteed, respectivamente. También pueden recibir otros nombres, dependiendo de los diversos catálogos que se han compilado y de los que forman parte. De tal forma, una misma estrella puede recibir muchas denominaciones. Las estrellas dobles o variables siguen otras nomenclaturas, de acuerdo a sus respectivos catálogos. Igualmente, dentro de los límites de las constelaciones existen otros objetos que no son estrellas (nebulosas planetarias, galaxias, etc.) y que han sido clasificados y denominados siguiendo varios catálogos adicionales (Messier, NGC, IC). El primero que hizo una clasificación de esta índole fue Charles Messier; así, por ejemplo, M31 designa a la Galaxia de Andrómeda. Véase también Anexo:Constelaciones Asterismo Referencias Bibliografía Allen, Richard Hinckley (1899), Star Names: Their Lore and Meaning. ISBN 0-486-21079-0 Enlaces externos Constelaciones
252_0
Crack
Crack puede referirse a: Crack, tipo de programa que realiza una modificación permanente o temporal sobre otro o en su código, para obviar una limitación o candado impuesto a propósito por el programador original. Crack, droga de gran poder estimulante derivada de la cocaína. Crack, proceso químico por el que se rompen moléculas para formar productos utilizables. Crack, quiebra bursátil, como el denominado Crack de 1929. Crack, grupo español de rock progresivo. Crack, antigua revista deportiva chilena. Crack, modelo de balón de fútbol chileno usado en la Copa Mundial de 1962. También, El crack puede hacer referencia a: El crack (1960), película argentina dirigida por José A. Martínez Suárez y protagonizada por Jorge Salcedo. El crack (1981), película española dirigida por José Luis Garci y protagonizada por Alfredo Landa. El crack II (1983), segunda parte de la película de José Luis Garci. El crack cero (2019), precuela de la película de José Luis Garci. Véase también El hijo del crack, película argentina de 1953. Generación del crack, movimiento estético de narradores mexicanos de fines del siglo XX Enlaces externos
253_0
Organización Europea para la Investigación Nuclear
La Organización Europea para la Investigación Nuclear (nombre oficial en español), comúnmente conocida por la sigla CERN (sigla provisional utilizada en 1952, que responde al nombre en francés Conseil Européen pour la Recherche Nucléaire, es decir, Consejo Europeo para la Investigación Nuclear), es una organización de investigación europea que opera el laboratorio de Física más grande del mundo. La organización tiene 22 estados miembros —Israel es el único país no europeo con una membresía plena concedida— y está oficialmente observado por las Naciones Unidas. El laboratorio principal, también llamado con el acrónimo CERN, está situado en Suiza, en la comuna de Meyrin, cerca de la frontera con Francia. Como instalación internacional que es, el CERN no está oficialmente bajo jurisdicción francesa ni suiza. Los estados miembros contribuyen conjunta y anualmente con (aproximadamente o ). El centro fue premiado en 2013 con el Premio Príncipe de Asturias de Investigación Científica y Técnica junto a Peter Higgs, y François Englert. Historia Fundado en 1954 por 12 países europeos, el CERN es hoy en día un modelo de colaboración científica internacional y uno de los centros de investigación más importantes en el mundo. Actualmente cuenta con 21 estados miembros, los cuales comparten la financiación y la toma de decisiones en la organización. Además, otros 28 países no miembros participan con científicos de 220 institutos y universidades en proyectos en el CERN utilizando sus instalaciones. De estos países no miembros, ocho estados y organizaciones tienen calidad de observadoras, participando en las reuniones del consejo. El primer gran éxito científico del CERN se produjo en 1984, cuando Carlo Rubbia y Simon van der Meer obtuvieron el Premio Nobel de Física por el descubrimiento de los bosones W y Z. En 1992 le tocó el turno a Georges Charpak «por la invención y el desarrollo de detectores de partículas, en particular la cámara proporcional multihilos». Director general El director general, por tradición científica, es nombrado por la organización y tiene una duración en sus funciones de cinco años, contabilizando desde el 1 de enero. La lista de directores generales que ha tenido el CERN es la siguiente: Edoardo Amaldi, secretario general de la organización de septiembre de 1952 hasta septiembre de 1954; Felix Bloch, de octubre de 1954 a agosto de 1955; Cornelis Bakker, de septiembre de 1955 hasta su fallecimiento en un accidente de avión en abril de 1960; John Bertram Adams, director interino desde mayo de 1960 a julio de 1961; Victor Weisskopf, de agosto de 1961 a diciembre de 1965; Bernard Paul Gregory, de enero de 1966 a diciembre de 1970; Daniel Williams Moreno Velarde, director del Laboratorio I de Meyrin de enero de 1971 a diciembre de 1975; John Bertram Adams, director del Laboratorio II de Prévessin de enero de 1971 a diciembre de 1975; John Bertram Adams, director general ejecutivo de enero de 1976 a diciembre de 1980; Léon Charles Van Hove, director general de investigación de enero de 1976 a diciembre de 1980; Herwig Schopper, de enero de 1981 a diciembre de 1988; Carlo Rubbia, de enero de 1989 a diciembre de 1993; Christopher Llewellyn Smith, de enero de 1994 a diciembre de 1998; Luciano Maiani, de enero de 1999 a diciembre de 2003; Robert Aymar, de enero de 2004 a diciembre de 2008; Rolf Dieter Heuer, de enero de 2009 a diciembre de 2015; Fabiola Gianotti, desde enero de 2016. Funcionamiento El CERN se encuentra en Suiza, cerca de Ginebra, y próximo a la frontera con Francia. Cuenta con una serie de aceleradores de partículas, entre los que destaca el ya desmantelado gran colisionador de electrones y positrones. Actualmente en su lugar se ha construido el gran colisionador de hadrones, un acelerador protón-protón previsto para operar a mayor energía y luminosidad (se producirán más colisiones por segundo) de de circunferencia y que constituye el acelerador de partículas más grande construido hasta la fecha. Financiado con la colaboración de 60 países, hizo posible la confirmación de la existencia del bosón de Higgs. La primera prueba de este último se realizó con éxito el 10 de septiembre de 2008. El éxito del CERN no es solo su capacidad para producir resultados científicos de gran interés, sino también el desarrollo de nuevas tecnologías tanto informáticas como industriales. Entre los primeros destaca en 1990 la invención del World Wide Web por los científicos Tim Berners-Lee y Robert Cailliau, pero no hay que olvidar el desarrollo y mantenimiento de importantes bibliotecas matemáticas (CERNLIB ahora llamada ROOT) usadas durante muchos años en la mayoría de centros científicos, o también sistemas de almacenamiento masivo (el gran colisionador de hadrones almacenará un volumen de datos del orden de varios PB cada año). Para finales de 2010 los directivos del CERN anunciaron que habían conseguido producir y capturar átomos de antimateria por un lapso de más de una décima de segundo. Este hecho es importantísimo para la ciencia ya que abre un campo que, al menos en la práctica, era desconocido y podría proporcionar energía en cantidades inmensas. Miembros Estados miembros Los doce miembros fundadores fueron: (entonces Alemania Occidental) , luego se retiró Todos los miembros fundadores se mantuvieron en el CERN, excepto Yugoslavia, que se retiró en 1961 y nunca volvió a formar parte. Desde su fundación, el CERN aceptó regularmente nuevos miembros. Todos ellos se mantuvieron dentro de la organización continuamente, excepto España, que se unió en 1961, se retiró en 1969 y volvió a unirse en 1983. También Austria anunciaría en 2009 su decisión de marcharse para 2010, aunque finalmente se mantuvo como miembro. La lista de miembros a lo largo de la historia es la siguiente: se unió en 1959 (13 miembros); se unió en 1961, volvió a unirse en 1983 (13 miembros); se unió en 1985 (14 miembros); se unió en 1991 (15 miembros); se unió en 1991 (16 miembros); se unió en 1992 (17 miembros); se unió en 1993; se unió en 1993 (junto con la República Checa, incrementando el total de miembros a 19); se unió en 1999 (20 estados miembros); se unió en 2013 (21 estados miembros). se unió en 2016 (22 estados miembros). se unió en 2018 (23 estados miembros). Actualmente hay 23 estados miembros. Miembros asociados Presupuesto 2019 Tipo de cambio: 1 CHF = 0,88 EUR (21 de febrero de 2019) Observadores e involucrados Seis organizaciones internacionales o países tienen «estatuto de observador»: Instituto Central de Investigaciones Nucleares (suspendido desde marzo de 2022) (suspendida desde marzo de 2022) La lista de países no miembros involucrados en programas del CERN, la conforman Albania, Argelia, Argentina, Armenia, Australia, Azerbaiyán, Baréin, Bangladés, Bielorrusia (suspendida desde marzo de 2022), Bolivia, Brasil, Canadá, Chile, China, Colombia, Costa Rica, Cuba, Ecuador, Egipto, Estonia, Georgia, Ghana, Hong Kong, Islandia, Indonesia, Irán, Irlanda, Jordania, Kazajistán, Corea del Sur, Kuwait, Letonia, Líbano, Madagascar, Malasia, Malta, México, Mongolia, Montenegro, Marruecos, Mozambique, Nepal, Nueva Zelanda, Macedonia del Norte, Omán, Palestina, Paraguay, Perú, Filipinas, Catar, Ruanda, Arabia Saudí, Singapur, Sudáfrica, Sri Lanka, Taiwán, Tailandia, Túnez, Emiratos Árabes Unidos, Uzbekistán, Vietnam. Dirección postal Puede usarse cualquiera de las direcciones European Organization for Nuclear Research CERN CH-1211 Genève 23 Switzerland Organisation Européenne pour la Recherche Nucléaire F-01631 CERN Cedex Francelos Véase también Investigación e innovación en la Unión Europea Gran Colisionador de Hadrones (LHC) El experimento LHCb Acelerador de partículas Física de partículas Tim Berners-Lee, informático del CERN creador de la WWW. Referencias Enlaces externos Sitio oficial del CERN Recruitment and training opportunities at CERN Página del GCH - Gran colisionador de hadrones Datos y evolución cronológica del GCH -inglés y francés-
255_0
Comunicación (desambiguación)
Los términos Comunicación y comunicaciones hacen referencia a varios artículos en Wikipedia: Interacción social Comunicación, el intercambio de información, un proceso de interacción social básico. Comunicación organizacional, término relacionado con la publicidad y las relaciones públicas de una organización. Medio de comunicación, medio de comunicación de masas o mass media. Transporte Transporte Biología Comunicación animal o Zoosemiótica Comunicación celular Comunicación interauricular Comunicación interventricular Epistemología Comunicación científica o publicación científica Tecnología y telecomunicaciones Comunicación en red Comunicación entre procesos Protocolo de comunicaciones Satélite de comunicaciones, dispositivos en órbita. Telecomunicación, técnica de transmisión de información a distancia. Otros usos Comunicación con personas con discapacidad Comunicación intercultural Comunicación política Comunicación social Guerrilla de la comunicación Clubes deportivos Club Comunicaciones de Buenos Aires, club social y deportivo argentino. Club Social y Deportivo Comunicaciones (Mercedes), club polideportivo argentino destacado por su baloncesto. Club Social y Deportivo Comunicaciones, equipo de fútbol guatemalteco.
261_0
Ciencias de la salud
Las ciencias de la salud son disciplinas que se ven relacionadas con la protección, el fomento y la restauración de la salud y de sus servicios. Además, se pueden definir como ciencias aplicadas que abordan el uso de conocimientos, de tecnologías, de la ingeniería o de las matemáticas en la prestación de asistencia sanitaria a los seres humanos. Dichas ciencias de la salud no son clasificadas como ciencias naturales ni ciencias sociales (aunque se nutren de ellas además de las matemáticas y la filosofía, y producen su propio "cuerpo de conocimientos", como lo hace la Enfermería), por tanto, su estatuto epistemológico o clasificación como ciencia es la siguiente en sentido estricto: son "Disciplinas Profesionales". La función de las ciencias de la salud es aquello que permita lograr una mejor calidad de vida, más larga, en buenas condiciones, sin incapacidades. Las ciencias de la salud se organizan en dos vertientes: el estudio e investigación para la adquisición de conocimientos sobre la salud-enfermedad; la aplicación de estos conocimientos técnicos. Ambas vertientes se reúnen para lograr el amplio propósito de: mantener, reponer, mejorar la salud y el bienestar, prevenir, tratar y erradicar enfermedades y comprender mejor los complejos procesos vitales de los organismos animales y humanos relacionados con la vida, la salud y sus alteraciones (enfermedad). Se dice que las ciencias de la salud son interdisciplinarias por el hecho de entrelazar o combinar varias ciencias para el estudio de un mismo caso clínico desconocido o para profundizar el estudio de una forma más especializada. Las investigaciones de esta ciencia están basadas en las ciencias naturales como la biología, la química y la física, aunque también en ciencias sociales, como la sociología médica, la psicología y otras. Clasificación Ciencias de la nutrición Bromatología Dietética Enfermería Enfermería comunitaria Enfermería de emergencias Enfermería de salud mental Enfermería del trabajo Enfermería geriátrica Enfermería intensivista Enfermería nefrológica Enfermería obstétrico-ginecológica Enfermería oncológica Enfermería pediátrica Enfermería quirúrgica o instrumentista Farmacia Farmacia comunitaria (oficina de farmacia) Farmacia de atención primaria Farmacia Galénica y Farmacología Farmacogenética y Farmacogenómica Farmacia Hospitalaria Química Farmacéutica y Farmacognosia Radiofarmacia Fisioterapia Fisioterapia traumatológica Fisioterapia respiratoria Fisioterapia Manual Fisioterapia del deporte Fonoaudiología Laboratorio clínico Análisis clínicos Bioquímica clínica Medicina Medicina veterinaria Obstetricia (matronería) Odontología Optometría Podología Psicología Neuropsicología Psicoanálisis Psicobiología Psicofisiología Psicología clínica Psicología comunitaria Psicología de la salud Psicología del deporte Psicología evolutiva Psicología experimental Psicología forense Psicología humanista Psicología organizacional Psicopatología Psicometría Psicoterapia Tecnología médica Terapia Ocupacional Véase también Ciencia Salud Referencias Ciencias de la salud Especialidades médicas
262_0
Ciencias de la Tierra
Las ciencias de la Tierra son un conjunto de disciplinas cuyo objetivo es el estudio del planeta Tierra, incluidas su interacción con el resto del universo y la evolución de los seres vivos que habitan en él. Esta disciplina abarca diversas áreas del conocimiento, tales como: las geociencias, las ciencias atmosféricas, las ciencias marinas, las ciencias ambientales, las ciencias criosféricas, la limnología, las ciencias forestales, la ciencia del suelo, la geografía física, la paleontología, la ecología del paisaje y las ciencias planetarias. Las ciencias de la Tierra constituyen una herramienta para planificar una explotación racional de los recursos naturales, comprender las causas que originan los fenómenos naturales que afectan al ser humano y cómo este influye en la naturaleza con sus acciones. Por otro lado, las ciencias de la Tierra permiten entender los procesos naturales que han favorecido o amenazado la vida del hombre, y su estudio está ligado tanto al estudio de los flujos de energía en la naturaleza y al aprovechamiento de los mismos, como a la prevención de riesgos medioambientales, sísmicos, meteorológicos y volcánicos, entre otros. Un sistema es un conjunto de elementos que se relacionan e interactúan entre sí. El planeta es un sistema complejo cuyos componentes tienden al equilibrio, es decir que los movimientos en un sentido se compensan con otros en sentido inverso. Cualquier modificación que se produzca en algún elemento del sistema afecta directa o indirectamente a otros. Geociencias, equivale a Ciencias de la Tierra y es uno de aquellos términos posmodernos que se han inventado para dar cuenta del conjunto de disciplinas científicas que construyen conocimientos sobre la Tierra, para comprender los complejos y variados procesos involucrados en la evolución, desde su nacimiento como Planeta Los procesos internos generan relieves, o sea, lugares más altos o más bajos. Los procesos externos desgastan los relieves más altos y depositan en otros lugares los materiales producidos por ese desgaste o erosión, lo que mantiene el equilibrio del sistema físico. Los procesos endógenos o internos se producen en el interior de la Tierra como es la tectónica de placas. Los límites entre placas tectónicas se clasifican en tres tipos: de convergencia, de divergencia y transformantes. El movimiento de las placas tectónicas puede producir orogénesis, formación de montañas, por apilamiento o deformación de la corteza (plegamiento y fracturación) y fenómenos como terremotos, magmatismo, metamorfismo y vulcanismo, así como la creación y destrucción de corteza. Los procesos exógenos o externos que se desarrollan en la superficie terrestre intervienen en la transformación del relieve a través de la erosión, que consiste en el desgaste de la superficie terrestre; el transporte de los materiales del desgaste hacia otras zonas, y su posterior acumulación. Según el agente que actúa, la erosión se puede clasificar en: eólica, fluvial, marina, pluvial, glaciar, mecánica y antrópica. Las ciencias de la Tierra pueden incluir el estudio de la geología, la litosfera y la estructura a gran escala del interior de la Tierra, así como la atmósfera, la hidrosfera y la biosfera. Normalmente, los científicos de la Tierra utilizan herramientas de la geología, la cronología, la física, la química, la geografía, la biología y las matemáticas para construir una comprensión cuantitativa de cómo funciona y evoluciona la Tierra. Por ejemplo, los meteorólogos estudian el tiempo y vigilan las tormentas peligrosas. Los hidrólogos examinan el agua y advierten de inundaciones. Los sismólogos estudian los terremotos e intentan comprender dónde se producirán. Los geólogos estudian las rocas y ayudan a localizar minerales útiles. Los científicos de la Tierra trabajan a menudo sobre el terreno, quizás escalando montañas, explorando el fondo marino, arrastrándose por cuevas o vadeando pantanos. Miden y recogen muestras (como rocas o agua de río) y registran sus hallazgos en gráficos y mapas. Particularidades respecto a otras ciencias Las ciencias de la Tierra abarcan el estudio temporal y espacial del planeta desde un punto de vista físico, incluyendo su interacción con los seres vivos. Las variadas escalas espacio-temporales de la estructura y la historia de la Tierra hacen que los procesos que en ella tienen lugar sean resultado de una compleja interacción entre procesos de distintas escalas espaciales (desde el milímetro hasta los miles de kilómetros) y temporales, que abarcan desde las centésimas de segundo hasta los miles de millones de años. Un ejemplo de esta complejidad es el distinto comportamiento mecánico que algunas rocas tienen en función de los procesos que se estudien: mientras las rocas que componen el manto superior responden elásticamente al paso de las ondas sísmicas (con periodos típicos de fracciones de segundo), se comportan como un fluido en las escalas de tiempo de la tectónica de placas Como el objeto de estudio (la Tierra) no es manipulable y la obtención de datos directos es limitada, las técnicas de simulación análoga o computacional son de cierta utilidad. Historia Las ciencias de la Tierra se encuentran en constante evolución. La geografía de Plinio el Viejo solo describía los elementos de la superficie de la Tierra sin ligarlos a través de procesos, y se daba poca importancia a la dinámica de cambios y la interacción con los elementos que componen el medio ambiente. Durante los primeros siglos de exploración europea se inició una etapa de conocimiento mucho más detallado de los continentes y océanos. Se cartografiaron en detalle, por ejemplo, las alineaciones magnéticas en el océano Atlántico, que serían de gran utilidad para la navegación intercontinental. En 1596, por ejemplo, Abraham Ortelius vislumbra ya la hipótesis de la deriva continental, precursora de la teoría de la tectónica de placas. Antes, los exploradores españoles y portugueses, habían acumulado un detallado conocimiento del campo magnético terrestre. El nacimiento de los conceptos básicos de la geología (gradualismo, superposición, etc), en el y (p.e., James Hutton) o la meteorología, dio paso a una eclosión en el estudio de la Tierra. Hoy, las ciencias de la Tierra son parte de las ciencias físicas cuantitativas basadas en el empirismo, la experimentación y la reproducibilidad de las observaciones. Por otra parte también son ciencias que ayudan a mejorar la comprensión del planeta Tierra, para poder brindar respuestas frente a los desafíos para preservar el medio ambiente y alcanzar un desarrollo sostenible. Disciplinas Estudio de la Tierra sólida: Geofísica, estudio del planeta desde el punto de vista de la física. Se analizan y modelan los fenómenos geológicos, con el fin de lograr una descripción matemática y geométrica de los mismos. Incluye disciplinas como la geodinámica o la sismología. Geología, estudia la dinámica interna y externa de la tierra, lo referente a las rocas y su estructura, los yacimientos minerales, la evolución del planeta, fenómenos como la tectónica de placas, las orogenias, terremotos, vulcanismo, avalanchas, inundaciones, etc. Estratigrafía, estudia las rocas sedimentarias, metamórficas y volcánicas estratificadas, las cuencas sedimentarias, la paleogeografía, las discontinuidades del registro geológico y la escala estratigráfica global. Geología Histórica, estudia las transformaciones que ha experimentado la Tierra desde su formación, hace unos 4570 millones de años, hasta el presente. Geomorfología, estudia las formas de la superficie terrestre, relacionadas con las estructuras y litología del subsuelo y los procesos erosivos que moldean las superficie. Paleoclimatología, estudia las características climáticas de la Tierra a lo largo de su historia. Paleogeografía, estudia la distribución a lo largo de los tiempos geológicos de las masas continentales y océanos en general, de la evolución de orogenias, cuencas sedimentarias, y de los medios sedimentarios en detalle. Petrografía, se ocupa de la descripción de las rocas, en especial estructuras, texturas y composición mineralógica. Petrología, estudia la composición y formación de las rocas, sus propiedades físicas y químicas, las relaciones mineralógicas, espaciales y cronológicas, y las asociaciones minerales (paragénesis) y rocosas. Estudia las rocas ígneas, metamórficas y sedimentarias. Sedimentología, estudia los procesos de formación, transporte y deposición del material que se acumula como sedimento en ambientes continentales y marinos y que finalmente forman rocas sedimentarias. Trata de interpretar y reconstruir los ambientes sedimentarios del pasado. Tectónica, estudia las estructuras geológicas producidas por deformación de la corteza terrestre, las que las rocas adquieren después de haberse formado, así como los procesos que las originan. Analiza la mecánica y la dinámica de la litosfera, para dar explicación a las deformaciones (pliegues y fallas) y formaciones estructurales como son las placas tectónicas. Vulcanología, estudia el vulcanismo, el magmatismo y otros fenómenos geológicos relacionados. Geografía, estudia la relación e interacción de la superficie terrestre con el hombre. Geoquímica, estudia la abundancia absoluta y relativa, distribución y migración de los elementos que conforman la Tierra. Paleontología, estudia e interpreta el pasado de la vida sobre la Tierra a través de los fósiles. Describe la evolución de la vida en nuestro planeta. Los datos paleontológicos proporcionan información cronoestratigráfica, paleogeográfica, paleoclimatológica, eventos catastróficos del pasado, etc. Ciencia del suelo, estudia el suelo como recurso natural. Geodesia, estudia la tierra teniendo en cuenta su curvatura. Climatología, estudio del clima terrestre actual y en el pasado geológico. Hidrología, estudia la distribución, espacial y temporal, y las propiedades del agua presente en la atmósfera y en la corteza terrestre. Meteorología, estudia la dinámica atmosférica y el tiempo meteorológico. Oceanografía u oceanología, estudia la dinámica oceánica como las mareas, el oleaje y las corrientes. Estudia la vida y el suelo oceánico con el fin de una comprensión completa de la formación y evolución del planeta Tierra (estudio de fosas, dorsales, islas y cordilleras sumergidas). Biogeografía es una ciencia interdisciplinar entre la Biología y la Geografía, que estudia la distribución de los seres vivos sobre la Tierra. Metodología Las metodologías varían en función de la naturaleza de los sujetos estudiados. Los estudios suelen clasificarse en una de estas tres categorías: observacionales, experimentales o teóricos. Los científicos de la Tierra a menudo realizan sofisticados análisis informáticos o visitan un lugar interesante para estudiar los fenómenos terrestres (por ejemplo, la Antártida o las cadenas de islas con puntos calientes). Una idea fundacional en las ciencias de la Tierra es la noción de Uniformismo, que afirma que "los rasgos geológicos antiguos se interpretan mediante la comprensión de los procesos activos que se observan fácilmente". En otras palabras, cualquier proceso geológico que actúe en el presente ha operado de la misma manera a lo largo del tiempo geológico. Esto permite a quienes estudian la historia de la Tierra aplicar el conocimiento de cómo funcionan los procesos de la Tierra en el presente para comprender cómo ha evolucionado y cambiado el planeta a lo largo de la historia. Desglose de las ciencias de la Tierra Atmósfera Química atmosférica Geografía Climatología Meteorología Hidrometeorología Paleoclimatología Biosfera Biogeoquímica Biogeografía Ecología Ecología del paisaje Geoarqueología Geomicrobiología Paleontología Palinología Micropaleontología Hidrosfera Hidrología Hidrogeología Limnología (ciencia del agua dulce) Oceanografía (ciencia marina) Oceanografía química Oceanografía física Oceanografía biológica (biología marina) Oceanografía geológica (geología marina) Paleoceanografía Litosfera (geosfera) Geología Geología económica Ingeniería geológica Geología ambiental Geología forense Geología histórica Geología cuaternaria Geología planetaria y geografía planetaria Sedimentología Estratigrafía Geología estructural Geografía Geografía humana Geografía física Geoquímica Geomorfología Geofísica Geocronología Geodinámica (véase también Tectónica) Geomagnetismo Gravimetría (también forma parte de Geodesia) Sismología Glaciología Hidrogeología Mineralogía Cristalografía Gemología Petrología Petrofísica Espeleología Vulcanología Pedosfera Geografía Edafología Edafología Pedología Sistemas Ciencia del sistema Tierra Ciencias ambientales Geografía Geografía humana Geografía física Hipótesis Gaia Ecología de sistemas Geología de sistemas Otros Geografía Cartografía Geoinformática Geoestadística Geodesia y Topografía Teledetección Nanogeociencia Véase también Ciencia del sistema Tierra Ciencias ambientales Geología histórica Ingeniería del petróleo Minería Ecología del paisaje Riesgos medioambientales Ciencias planetarias Riesgo natural Enlaces externos Nature Geoscience Referencias Bibliografía Allaby M., 2008. Dictionary of Earth Sciences, Oxford University Press, Korvin G., 1998. Fractal Models in the Earth Sciences, Elsvier, Tarbuck E. J., Lutgens F. K., and Tasa D., 2002. Earth Science, Prentice Hall, Ciencias de la Tierra
265_0
Cesio
El cesio es el elemento químico con número atómico 55 y peso atómico de 132,905 u. Su símbolo es Cs, y es el segundo más pesado de los metales alcalinos conocidos en el grupo IA de la tabla periódica, después del francio; se encuentra en componentes no orgánicos. Historia El cesio fue descubierto por Robert Bunsen y por Gustav Kirchhoff en el año 1860 mediante el uso de un nuevo espectroscopio desarrollado por ellos, al encontrar dos líneas brillantes de color azul en el espectro del carbonato de cesio y del cloruro de cesio. Dichas sales de cesio fueron aisladas por Robert Bunsen, precipitándolas a partir de agua mineral.. Bunsen y Kirchoff le dieron el nombre derivando del latín caesius (azul cielo). A pesar de los intentos infructuosos de Bunsen por aislar el elemento en su forma metálica, hubo que esperar hasta 1862 para que Carl Setterberg pudiera aislarlo mediante electrólisis del cianuro de cesio fundido. Como apunte, en el año 1967 se establece en la conferencia de pesos y medidas en París que un segundo es igual a períodos de radiación correspondiente a la transición entre los dos niveles hiperfinos del estado fundamental del isótopo 133 del átomo de cesio (133Cs), medidos a 0 K. Características El cesio es un metal blando, ligero y de bajo punto de fusión. Es el segundo menos electronegativo de todos los elementos después del francio. El cesio reacciona en forma vigorosa con oxígeno para formar una mezcla de óxidos. En aire húmedo, el calor de oxidación puede ser suficiente para fundir y prender el metal. El cesio no reacciona con nitrógeno para formar nitruros, pero reacciona con el hidrógeno a temperaturas altas para producir un hidruro muy estable; reacciona en forma violenta con el agua y aun con hielo a temperaturas de hasta –116 °C así como con los halógenos, amoniaco y monóxido de carbono. En general, con compuestos orgánicos el cesio experimenta los mismos tipos de reacciones que el resto de los metales alcalinos, pero es mucho más reactivo. Abundancia y obtención El cesio no es muy abundante en la corteza terrestre, hay del orden de 3 partes por millón. Ocupa el lugar 45 entre los elementos más abundantes en la tierra y el 36 entre los metales. Es más abundante que el antimonio, cadmio, estaño, y tungsteno, y dos órdenes de magnitud más abundante que el mercurio y la plata; es un 3.3 % de la abundancia del rubidio, con el cual está fuertemente asociado químicamente. Al igual que el litio y el rubidio, el cesio se encuentra como un constituyente de minerales complejos, y no en forma de halogenuros relativamente puros, como en el caso del sodio y del potasio. Es hallado frecuentemente en minerales lepidolíticos como los existentes en Rodesia. El cesio, debido a su gran radio iónico, es uno de los elementos incompatibles. Durante la cristalización del magma, el cesio se concentra en la fase líquida y cristaliza el último. como consecuencia, los mayores depósitos de cesio se encuentran en zonas de masas de menas de pegmatita formadas por este proceso de enriquecimiento. Como el cesio no sustituye tan fácilmente al potasio como lo hace el rubidio, los minerales de alcalinos de evaporación silvita (KCl) y carnalita () suelen contener solamente un 0.002% de cesio. Como consecuencia el cesio se encuentra en pocos minerales. Se encuentra cesio en berilio () y avogadrita (), hasta un 15 wt% Cs2O en el mineral relacionado pezzottaita (), up to 8. 4 wt% Cs2O en el mineral raro londonita (), y menos en el más ampliamente encontrado rhodizita. La única mena importante de cedioes la polucita , que se encuentra en unos pocos lugares en el mundo que tienen pegmatitas, asociadas con minerales de litio más importantes comercialmente, lepidolita y petalita. Dentro de las pegmatitas, el gran tamaño de los granos y la fuerte separación de los minerales da como resultado un mineral de alta ley para la minería. La fuente de cesio más importante y rica del mundo que se conoce es la Mina Tanco en el lago Bernic en Manitoba, Canadá, que se calcula que contiene 350.000 toneladas métricas de mineral de pollucita, lo que representa más de dos tercios de la base de reservas del mundo. Aunque el contenido estequiométrico de cesio en la pollucita es del 42. 6 %, las muestras puras de pollucita de este yacimiento contienen solo alrededor del 34 % de cesio, mientras que el contenido medio es del 24 wt%. La pollucita comercial contiene más del 19% de cesio. El yacimiento de pegmatita del Distrito de Bikita en Zimbabue se explota por su petalita, pero también contiene una cantidad significativa de pollucita. Otra fuente notable de pollucita se encuentra en la Desierto de Karibib, Namibia. Al ritmo actual de producción minera mundial de 5 a 10 toneladas métricas por año, las reservas durarán miles de años. Usos Perforación petrolífera El mayor uso actual de cesio no radiactivo es en fluidos de perforación de formiato de cesio en la para la industria de extracción de petróleo. Soluciones acuosas de formiato de cesio (HCOO−Cs+), elaborados mediante la reacción de hidróxido de cesio con ácido fórmico, se desarrollaron a mediados de la década de 1990 para su uso en la perforación de pozos de petróleo y fluidos de terminación. La función de un fluido de perforación es lubricar las barrenas de perforación, llevar los recortes de roca a la superficie y mantener la presión sobre la formación durante la perforación del pozo. Los fluidos de terminación ayudan a colocar la maquinaria de control después de la perforación pero antes de la producción al mantener la presión. La alta densidad de la salmuera de formiato de cesio (hasta 2,3 g/cm3, o 19,2 libras por galón), junto con la naturaleza relativamente benigna de la mayoría de los compuestos de cesio, reduce el requisito de sólidos suspendidos tóxicos de alta densidad en el fluido de perforación, una gran ventaja en un problema tecnológico, de ingeniería y ambiental significativo. A diferencia de los componentes de muchos otros líquidos pesados, el formiato de cesio es relativamente amigable con el medio ambiente. La salmuera de formiato de cesio se puede mezclar con formiatos de potasio y sodio para disminuir la densidad de los fluidos hasta la del agua (1.0 g/cm3, u 8,3 libras por galón). Además, es biodegradable y se puede reciclar, lo cual es importante teniendo en cuenta su alto costo (alrededor de $4,000 por barril en 2001). Los formiatos alcalinos son seguros de manejar y no dañan la formación productora o los metales de fondo de pozo como lo hacen a veces las salmueras alternativas corrosivas de alta densidad (como las soluciones de bromuro de zinc ); también requieren menos limpieza y reducen los costos de eliminación. Relojes atómicos Los relojes atómicos basados en cesio utilizan las transiciones electromagnéticas en la estructura hiperfina de los átomos de cesio-133 como punto de referencia. El primer reloj de cesio preciso fue construido por Louis Essen en 1955 en el Laboratorio Nacional de Física del Reino Unido. Los relojes de cesio han mejorado durante el último medio siglo y se consideran "la realización más precisa de una unidad [de magnitud] que la humanidad ha logrado". Estos relojes miden la frecuencia con un error de 2 a 3 partes en 1014, lo que corresponde a una precisión de 2 nanosegundos por día, o un segundo en 1,4 millones de años. Las últimas versiones son más precisas que 1 parte en 1015, aproximadamente 1 segundo en 20 millones de años. El estándar de cesio es el estándar principal para mediciones de tiempo y frecuencia que cumple con los estándares. Los relojes de cesio sirven de la referencia del tiempo de las redes de telefonía celular e Internet. Definición del segundo El segundo, símbolo s, es la unidad de tiempo del Sistema Internacional (SI). Se define tomando el valor numérico fijo de la frecuencia de cesio , la frecuencia de transición hiperfina del estado fundamental no perturbado del átomo de cesio-133, que es 9 192 631 770 cuando se expresa en la unidad Hz, que es igual a s−1. Otros usos El cesio metálico se utiliza en celdas fotoeléctricas, instrumentos espectrográficos, contadores de centelleo, bulbos de radio, lámparas militares de señales infrarrojas y varios aparatos ópticos y de detección. Los compuestos de cesio se usan en la producción de vidrio y cerámica, como absorbentes en plantas de purificación de dióxido de carbono, en microquímica. Las sales de cesio se han utilizado en medicina como agentes antishock después de la administración de drogas de arsénico. El isótopo cesio-137 se utiliza habitualmente en procedimientos de radioterapia interna también llamada braquiterapia para el tratamiento del cáncer. Efectos del cesio sobre la salud Los humanos pueden estar expuestos al cesio por respiración o al ingerirlo con alimentos y bebidas. En el aire los niveles de cesio son generalmente bajos, pero el cesio radioactivo ha sido detectado en algunos niveles en aguas superficiales y en muchos tipos de comidas. La cantidad de cesio en comidas y agua depende de la emisión de cesio radiactivo de plantas de energía nuclear, mayoritariamente a través de accidentes, tal es el caso del Desastre de Chernobyl en 1986 y el Accidente nuclear de Fukushima Dai-Ichi en 2011. La gente que trabaja en industria de energía nuclear puede estar expuesta a altos niveles de cesio, pero son tomadas muchas medidas de seguridad para prevenirlo. Es poco probable que la gente que experimente el efecto del cesio sobre la salud pueda relacionarlo con este. Cuando hay contacto con cesio radiactivo, algo altamente improbable, la persona puede experimentar daño celular a causa de la radiación emitida por las partículas del cesio. Esto puede traer como consecuencia efectos como náuseas, vómitos, diarreas, y hemorragias. Si la exposición es larga la gente puede incluso perder el conocimiento, entrar en coma o incluso morir. Cuan serios sean los efectos depende de la resistencia de cada persona, el tiempo de exposición y la concentración a la que esté expuesta. El azul de Prusia (uso médico), también conocido como hexacianoferrato férrico de potasio, se usa como un medicamento para tratar la intoxicación por talio o cesio radiactivo. Efectos ambientales del cesio El cesio está en la naturaleza principalmente a causa de la erosión y desgaste de rocas y minerales. Es también liberado al aire, al agua y al suelo a través de la minería y fábricas de minerales. Los isótopos radiactivos del cesio pueden ser disminuidos solo en su concentración a través de la desintegración radiactiva. El cesio no radiactivo puede también ser destruido cuando entra en el ambiente o reacciona con otros compuestos en moléculas muy específicas. Tanto el cesio radiactivo como el estable actúan químicamente como en los cuerpos de los humanos y los animales. El cesio en el aire puede viajar largas distancias antes de precipitarse en la tierra. La mayoría de los compuestos del cesio son muy solubles en agua. En suelos, por otro lado, el cesio no puede ser eliminado por el agua subterránea; allí permanece en las capas superiores del suelo y es fuertemente unido a las partículas del mismo, y como resultado no queda disponible para ser tomado por las raíces de las plantas. El cesio radiactivo tiene la oportunidad de entrar en las plantas al caer sobre las hojas. Los animales que son expuestos a muy altas dosis de cesio muestran cambios en el comportamiento, como es el incremento o la disminución de la actividad. Producción La extracción y el refinado del mineral de polucita es un proceso selectivo y se realiza a menor escala que para la mayoría de los demás metales. El mineral se tritura, se clasifica a mano, pero no suele concentrarse, y luego se muele. El cesio se extrae entonces de la pollucita principalmente por tres métodos: digestión ácida, descomposición alcalina y reducción directa. En la digestión ácida, la roca de silicato pollucita se disuelve con ácidos fuertes, como el hidroclórico (HCl), el sulfúrico (), el hidrobromhídrico (HBr) o el hidrofluórico (HF). Con el ácido clorhídrico, se produce una mezcla de cloruros solubles, y las sales dobles de cloruro de cesio insolubles se precipitan como cloruro de antimonio de cesio (), cloruro de yodo de cesio (), o hexaclorocerato de cesio (). Después de la separación, la sal doble pura precipitada se descompone, y el CsCl puro se precipita evaporando el agua. El método del ácido sulfúrico produce la sal doble insoluble directamente como alumbre de cesio (). El componente sulfato de aluminio se convierte en óxido de aluminio insoluble calentando el alum con carbono, y el producto resultante se lixivia con agua para dar una solución de . Mediante el calentamiento de polucita con carbonato de calcio y cloruro de calcio se produce silicatos de calcio insolubles y cloruro de cesio soluble. La lixiviación con agua o amoníaco diluido () produce una solución diluida de cloruro de cesio (CsCl). Esta solución puede evaporarse para producir cloruro de cesio o transformarse en alumbre de cesio o carbonato de cesio. Aunque no es comercialmente factible, el mineral se puede reducir directamente con potasio, sodio o calcio en vacío para producir cesio metálico directamente. La mayor parte del cesio extraído (como sales) se convierte directamente en formiato de cesio (HCOO−Cs+) para aplicaciones tales como la perforación petrólífera. Para abastecer el mercado en desarrollo, Cabot Corporation construyó una planta de producción en 1997 en la mina Tanco cerca del lago Bernic en Manitoba, con una capacidad de 1900 m por año de solución de formiato de cesio. Los principales compuestos comerciales de cesio a menor escala son el cloruro de cesio y el nitrato de cesio. Alternativamente, el cesio metálico puede obtenerse a partir de compuestos purificados derivados del mineral. El cloruro de cesio y los otros haluros de cesio pueden reducirse a 700 a 800 °C con calcio o bario, y el metal de cesio se destila del resultado. Del mismo modo, el aluminato, el carbonato o el hidróxido pueden ser reducidos por magnesio. El cesio metal también puede aislarse por electrólisis de cianuro de cesio fundido (CsCN). El cesio excepcionalmente puro y sin gas puede producirse por descomposición térmica a 390 °C de azida de cesio , que puede producirse a partir de sulfato de cesio acuoso y azida de bario. En aplicaciones de vacío, el dicromato de cesio puede reaccionar con circonio para producir cesio metálico puro sin otros productos gaseosos. + 2 → 2 + 2 + El precio del cesio puro al 99,8% (base metálica) en 2009 era de unos 10$/g, pero los compuestos son bastante más baratos. Véase también Metales alcalinos Tabla periódica de los elementos Lista alfabética de elementos químicos Accidente radiológico de Goiânia Referencias Enlaces externos ATSDR en Español - ToxFAQs™: Cesio ATSDR en Español - Resumen de Salud Pública www.webelements.com Video de explosiones con metales alcalinos
292_0
Cono
Cono hace referencia a varios artículos: Concepto Cono (geometría), cuerpo geométrico, sólido de revolución. Ciencias Cono de luz, representación del espacio-tiempo en la teoría de la relatividad especial, Cono de Mach, la envolvente de perturbaciones producidas por un móvil al desplazarse a una velocidad superior a la del sonido, Ciencias naturales Cono (célula), célula fotorreceptora de la retina que recibe las impresiones luminosas del color, Cono (botánica) o estróbilo, estructura de eje terminal alrededor del cual se despliegan hojas reproductivas, Ananas comosus, fruto de la piña, planta nativa de América del Sur, Cono de crecimiento neural, estructura dinámica descrita por Ramón y Cajal, que constituye la extensión de un axón en desarrollo; Antropología Cono funerario, antiguo objeto egipcio que tenía una estampación de jeroglíficos de significado funerario. Conos (tribu), pueblo que habitaba en el sur de la península itálica hacia el Geografía física Cono de Abrams, ensayo que se realiza al hormigón en estado fresco, Cono de detritos o cono de derrubios, una estructura geomorfológica, Cono de escoria o cono de ceniza, un montículo cónico de fragmentos volcánicos, Lugares Cono Sur, región más meridional del subcontinente sudamericano. Salar de Arizaro o Cono de Arita, geoforma natural en forma cónica en la provincia de Salta, Argentina. En Perú Cono Norte (Lima), ahora llamado Lima Norte, subregión septentrional de la ciudad. Cono Este (Lima), ahora llamado Lima Este, subregión de los distritos ubicados en el este de la ciudad. Cono Sur (Lima), ahora llamado Lima Sur, subregión de los distritos ubicados en el sur de la ciudad. Además Cono de tráfico, elemento para regular la circulación de vehículos. Cono vaginal, dispositivo para tratar la incontinencia urinaria. Cono de la Experiencia, del pedagogo Edgar Dale, que representa la profundidad del aprendizaje.
293_0
Cupressaceae
Las cupresáceas (nombre científico Cupressaceae) son una familia de coníferas del orden Cupressales. Son árboles o arbustos con madera y follaje muchas veces aromáticos, con hojas como escamas fuertemente apretadas desde 1 mm a 3 cm de largo. Es una familia cosmopolita de climas cálidos a templado-frescos. Son muy utilizadas por su madera, su fragancia, y como ornamentales. Descripción Introducción teórica en Terminología descriptiva de las plantas Árboles o arbustos, madera y follaje muchas veces aromáticos. La corteza de los troncos muchas veces fibrosa, desprendiéndose en largas cintas en los árboles maduros, o formando bloques. Hojas persistentes (deciduas en 3 géneros), simples, de disposición espiralada o torcidas en la base pareciendo de disposición dística, opuestas, o verticiladas, como escamas, densamente apretadas y tan cortas como de 1 mm a lineales y hasta 3 cm de largo, con canales de resina, que se desprenden con las ramas laterales, hojas adultas apretadas o esparcidas, a veces esparcidas y lineales en las ramas principales y como escamas y apretadas en las ramas laterales, hojas como escamas muchas veces dimórficas, las hojas laterales aquilladas y dobladas alrededor de la rama y las hojas de la punta y la base de la rama planas. Monoicos o Dioicos (Juniperus, "Austrocedrus" y "Fitzroya" son dioicos). Estróbilos microsporangiados con microsporofilos dispuestos en espiral u opuestos, microsporangios 2 a 10 en la superficie abaxial del microsporofilo, polen sin "sacca". Conos que maduran en 1 a 3 años, escamas peltadas o basalmente adjuntadas y aplanadas, jugosas en Juniperus, fusionadas a las brácteas, persistentes (deciduas en Taxodium), óvulos de 1 a 20, en la superficie adaxial de la escama, erectos (la micropila mirando hacia afuera del eje del cono), en algunos el óvulo puede estar invertido eventualmente. Arquegonios variables en número por óvulo, agrupados. Semillas con 2 (raramente 3) alas laterales (alas ausentes en algunos géneros), embrión derecho, cotiledones de 2 a 15. Ecología Es una familia cosmopolita de climas cálidos a templado frescos. Unas 3 cuartas partes de las especies ocurren en el Hemisferio Norte. Unos 16 géneros contienen una sola especie, y muchas de ellas tienen distribuciones restringidas. Los miembros de esta familia crecen en hábitats diversos, de tierras húmedas a suelos secos, y del nivel del mar a altas elevaciones en regiones montañosas. Cupressaceae incluye a las plantas más grandes de la Tierra, Sequoia sempervirens, de casi 112 m de alto y 6,7 m de diámetro, y el más grande (Sequoiadendron giganteum, 106 m de alto y 11,4 mm de diámetro). Algunas especies viven 2000-3500 años o más. Filogenia Introducción teórica en Filogenia La familia fue durante mucho tiempo dividida en Cupressaceae sensu stricto y Taxodiaceae sobre la base de las diferencias entre sus hojas. Cupressaceae s.s. tiene hojas opuestas y como escamas o espiraladas y lineales, mientras que Taxodiaceae tiene mayormente hojas espiraladas y lineales. Las hojas de Metasequoia (Taxodiaceae) sin embargo son opuestas, y las de Athrotaxis (Taxodiaceae) pueden ser escamas. Hay numerosas similitudes (y potenciales sinapomorfías) que unen a estas familias: la fusión de la escama del cono y la bráctea, las alas laterales en las semillas derivadas de la cubierta de la semilla, los microsporangios dos o más por microsporofilo, más de dos semillas por escama del cono, el desprendimiento de las ramas pequeñas, los arquegonios agrupados, los granos de polen sin alas, las escamas del cono peltadas en muchos géneros, y caracteres de secuencias de ADN (Brunsfeld et al. 1994, Eckenwalder 1976, Hart 1987, Stefanovic et al. 1998, Tsumura et al. 1995, Watson y Eckenwalder 1993). Finalmente, Cupressaceae s.s. es monofilético y probablemente surgió de un asemblaje parafilético, las "taxodiáceas". Entonces la evidencia muestra que hay que unir a las dos familias. Cupressaceae s.s. se divide en dos clados con buen sostén: el clado cupresoide, con todos los grupos del Hemisferio Norte, y el clado callitroide, comprendiendo todos los taxones del Hemisferio Sur. Cupressaceae s.s. es el grupo hermano del clado de tres géneros taxodioides: Taxodium, Glyptostrobus, y Cryptomeria. Taxodium crece en el este de Estados Unidos y México y, como su género hermano Glyptostrobus (del sur y centro de China), es deciduo. Cryptomeria crece en un rango amplio en China y Japón. Otro trío bien sostenido de géneros que divergieron temprano en la evolución de Cupressaceae es el clado sequoioide de Metasequoia, Sequoia y Sequoiadendron. Metasequoia estuvo ampliamente distribuida y es uno de los géneros más comunes de Cupressaceae en el Hemisferio Norte desde el Cretácico tardío al Mioceno. Su rango nativo es ahora restringido a una región aislada de China del centro-oeste, y se conoció fuera de su rango nativo solo como fósil hasta 1944. Su hábito deciduo parece haber evolucionado en paralelo a aquel de Taxodium y Glyptostrobus. Sequoia y Sequoiadendron, como Metasequoia y muchos otros géneros, contienen solo una especie cada uno y están muy geográficamente limitados. Sequoia está restringido a las regiones costeras del norte de California y el sur de Oregón y Sequoiadendron a las regiones montañosas de California central. Cunninghamia, un género de unas tres especies del sudeste de Asia, es hermano al resto de la familia. Juniperus es miembro fffffffffdel clado cupressoide y el segundo más grande género de coníferas después de Pinus. Los juníperos están mayormente confinados al Hemisferio Norte, con centros de diversidad en los desiertos de México y el sudoeste de Estados Unidos, el Mediterráneo, y Asia central y China. Sus especies se encuentran desde el nivel del mar hasta por la línea de los árboles en las alturas, y de desiertos a pantanos. Algunas especies de este género son plaga y han invadido millones de acres de tierras labradas. Los conos jugosos de los juníperos son consumidos por pájaros y pequeños mamíferos, y se sospecha que el transporte a larga distancia por pájaros ha transportado al género a islas del Atlántico como las Azores, Bermuda, y las islas Canarias. Los juníperos son hermanos del género del Viejo Mundo Cupressus, que anteriormente incluía 16 especies del oeste de Norte y Sudamérica. Estas especies del Nuevo Mundo han sido transferidas a Callitropsis. Callitropsis nootkatensis ha sido difícil de ubicar taxonómicamente debido a su morfología distintiva. Esta importante especie maderable del noroeste de Norteamérica ha sido ubicada en Chamaecyparis, en Cupressus y en Xanthocyparis. Su pariente más cercano puede ser una especie recientemente descripta de bosques del norte de Vietnam, Callitropsis vietnamensis. Sciadopitys, fue tradicionalmente ubicado en "Taxodiaceae". Las hojas de este género parece fusionadas en pares pero probablemente estas estructuras pareadas son una especie de tallo modificado. Numerosas diferencias morfológicas, moleculares y de otros tipos argumentan para su estatus de familia separada (Stefanovic et al. 1998), como las Sciadopityaceae. Taxonomía Introducción teórica en Taxonomía 29 (quizás 32) géneros, unas 110 a 130 especies. Los géneros más representados son Juniperus (cerca de 68 especies), Callitropsis (18 especies), Callitris (15 especies), Cupressus (12 especies), Chamaecyparis (7 especies), Thuja (5 especies), Taxodium (3 especies), Sequoia (1 especie) y Sequoiadendron (1 especie). La clasificación, según Christenhusz et al. 2011, que también provee una secuencia lineal de las gimnospermas hasta género: Familia 11. Cupressaceae Gray, Nat. Arr. Brit. Pl. 2: 222. (1822), nom. cons. Tipo: Cupressus L. Sinónimos: Juniperaceae J.Presl & C.Presl, Delic. Prag. : 142 (1822). Tipo: Juniperus L. Thujaceae Burnett, Outl. Bot.: 502, 1149 (1835). Tipo: Thuja L. Cunninghamiaceae Siebold & Zucc., Fl. Jap. 2: 1, 3 (1842). Tipo: Cunninghamia R.Br. Taxodiaceae Saporta, Ann. Sci. Nat.,Bot., ser. 5, 4: 44 (1865), nom. cons. Tipo: Taxodium Rich. Sequoiaceae C.Koch ex Luerss., Grundz. Bot.: 265 (1877). Tipo: Sequoia Endl. Cryptomeriaceae Gorozh., Lekts. Morf. Sist. Archegon.: 88 (1904). Tipo: Cryptomeria D.Don. Thujopsidaceae Bessey, Nebraska Univ. Stud. 7: 325 (1907). Tipo: Thujopsis Siebold & Zucc. ex Endl. Actinostrobaceae Lotsy, Vortr. Bot. Stammesgesch. 3: 98 (1911). Tipo: Actinostrobus Miq. Callitridaceae Seward, Fossil Pl. 4: 124, 151, 336 (1919). Tipo: Callitris Vent. Limnopityaceae Hayata, Bot. Mag. (Tokyo) 46: 25. 1932. Tipo: Taxodium Rich. Taiwaniaceae Hayata, Bot. Mag. (Tokyo) 46: 26 (1932). Tipo: Taiwania Hayata. Tetraclinaceae Hayata, Bot. Mag. (Tokyo) 46: 27 (1932). Tipo: Tetraclinis Masters. Microbiotaceae Nakai, Tyosen-Sanrin 165: 13 (1938). Tipo: Microbiota Komarov. Metasequoiaceae S.Miki ex Hu & W.C.Cheng, Bull. Fan Mem. Inst. Biol., ser. 2, 1: 154 (1948). Tipo: Metasequoia Hu & W.C.Cheng. Athrotaxidaceae Doweld, Prosyllab. Tracheophyt.: xix (2001). Tipo: Athrotaxis D.Don. Libocedraceae Doweld, Novosti Sist. Vyssh. Rast. 33: 42 (2001). Tipo: Libocedrus Endl. Neocallitropsidaceae Doweld, Prosyllab. Tracheophyt.: xx (2001). Tipo: Neocallitropsis Florin. Widdringtoniaceae Doweld, Prosyllab. Tracheophyt.: xx (2001). Tipo: Widdringtonia Endl. Arceuthidaceae A.V.Bobrov & Melikian, Komarovia 4: 79 (2006). Tipo: Arceuthos Antoine & Kotschy. Diselmaceae A.V.Bobrov & Melikian, Komarovia 4: 96 (2006). Tipo: Diselma Hook.f. Fitzroyaceae A.V.Bobrov & Melikian, Komarovia 4: 80 (2006), ‘Fitz-Royaceae’. Tipo: Fitzroya Hook.f. ex Lindl. Pilgerodendraceae A.V.Bobrov & Melikian, Komarovia 4: 87 (2006). Tipo: Pilgerodendron Florin. Platycladaceae A.V.Bobrov & Melikian, Komarovia 4: 97 (2006). Tipo: Platycladus Spach 29 géneros, cerca de 130 species, casi cosmopolita. Esta secuencia está basada en los árboles filogenéticos de Gadek et al. (2000) y Little et al. (2004). 11.1. Cunninghamia R.Br. in L.C.M. Richard, Comm. Bot. Conif. Cycad. 149 (1826), nom. cons., non Schreb. (1791), nom. rej. Tipo: C. sinensis R.Br., nom. illeg. (≡ C. lanceolata (Lamb.) Hook., ≡ Pinus lanceolata Lamb.) Sinónimos: Belis Salisb., Trans. Linn. Soc. London 8: 315 (1807), nom. rej. Tipo: B. jaculifolia Salisb., nom. illeg. (≡ Pinus lanceolata Lamb.) Jacularia Raf., Gard. Mag. & Reg. Rural Domest. Improv. 8: 247 (1832), nom. illeg. Raxopitys J.Nelson, Pinaceae : 97 (1866) Tipo: R. cunninghamii J.Nelson, nom. illeg. (≡ Pinus lanceolata Lamb.) 11.2. Taiwania Hayata, J. Linn. Soc., Bot. 37: 330 (1906). Tipo: T. cryptomerioides Hayata 11.3. Athrotaxis D.Don, Ann. Nat. Hist. 1: 234 (1838). Tipo: A. selaginoides D.Don 11.4. Metasequoia Hu & W.C.Cheng, Bull. Fan Mem. Inst. Biol., ser. 2, 1(2): 154 (1948), nom. cons., non Miki (1941, nom. rej. = fósil). Tipo: M. glyptostroboides Hu & W.C.Cheng, nom. & typ. cons. 11.5. Sequoia Endl., Syn. Conif.: 197 (1847), nom. cons. Tipo: S. sempervirens (D.Don) Endl. (≡ Taxodium sempervirens D.Don) 11.6. Sequoiadendron J.Buchholz, Amer. J. Bot. 26: 536 (1939), nom. cons. prop. Tipo: S. giganteum (Lindl.) J.Buchholz (≡ Wellingtonia gigantea Lindl.) Sinónimos: Wellingtonia Lindl., Gard. Chron. 1853: 823 (1853), nom. illeg., non Meisn. (1840). Tipo: W. gigantea Lindl. Americus Hanford, Great Calif. Tree: 6 (1854), nom. rej. prop. Tipo: A. gigantea (Lindl.) Hanford (≡ Sequoiadendron giganteum (Lindl.) J.Buchholz ≡ Wellingtonia gigantea Lindl.) Washingtonia Winslow, Calif. Farmer 2: 58 (1854), nom. inadmis., non Raf. ex J.M.Coulter (1900), nom. cons. Tipo: W. californica (≡ Sequoiadendron giganteum (Lindl.) J.Buchholz ≡ Wellingtonia gigantea Lindl.) 11.7. Cryptomeria D.Don, Ann. Nat. Hist. 1: 233 (1838). Tipo: C. japonica (Thunb. ex L.f.) D.Don (≡ Cupressus japonica Thunb. ex L.f.) 11.8. Glyptostrobus Endl., Syn. Conif.: 69 (1847). Tipo: Taxodium japonicum Brongn., nom. illeg., non (L.f.) Brongn. (= G. pensilis (Staunton ex D.Don) K.Koch) 11.9. Taxodium Rich., Ann. Mus. Natl. Hist. Nat. 16: 298 (1810). Tipo: T. distichum (L.) Rich. (≡ Cupressus disticha L.) Sinónimos: Schubertia Mirb., Nouv. Bull. Sci. Soc. Philom. Paris 3: 123 (1812), nom. rej. Tipo: S. disticha (L.) Mirb. (≡ Cupressus disticha L.) Cuprespinnata J.Nelson, Pinaceae : 61 (1866), nom. illeg. Tipo: C. disticha (L.) J.Nelson (≡ Taxodium distichum (L.) Rich. ≡ Cupressus disticha L.) 11.10. Papuacedrus H.L.Li, J. Arnold Arbor. 34: 25 (1953). Tipo: P. papuana (F.Muell.) H.L.Li (≡ Libocedrus papuana F.Muell.) 11.11. Austrocedrus Florin & Boutelje, Acta Horti Berg. 17(2): 28 (1954). Tipo: A. chilensis (D.Don) Pic.Serm. & Bizzarri (≡ Thuja chilensis D.Don) 11.12. Libocedrus Endl., Syn. Conif.: 42 (1847). Tipo: L. doniana Endl., nom. illeg. (≡ L. plumosa (D.Don) Sarg. ≡ Dacrydium plumosum D.Don) Sinónimo: Stegocedrus Doweld, Novit. Syst. Pl. Vasc. 33: 42 (2001). Tipo: S. austrocaledonica (Brongn. & Gris) Doweld (≡ Libocedrus austrocaledonica Brongn. & Gris). 11.13. Pilgerodendron Florin, Svensk Bot. Tidskr. 24: 132 (1930). Tipo: P. uviferum (D.Don) Florin (≡ Juniperus uvifera D.Don) 11.14. Widdringtonia Endl., Gen. Pl. Suppl. 2: 25 (1842). Tipo: W. cupressoides (L.) Endl. ( = Thuja cupressoides L.) Sinónimos: Pachylepis Brongn., Ann. Sci. Nat. (Paris) 30: 189 (1833), nom. illeg., non Less. (1832). Tipo: P. cupressoides (L.) Brongn. (≡ Widdringtonia cupressoides (L.) Endl. ≡ Thuja cupressoides L.) Parolinia Endl., Gen. Pl. Suppl. 1: 1372 (1841), nom. illeg., non Webb (1840, Brassicaceae). Tipo: Thuja cupressoides L. 11.15. Diselma Hook.f., Fl. Tasmaniae 1(5): 353 (1857). Tipo: D. archeri Hook.f. 11.16. Fitzroya Hook.f. ex Lindl., J. Hort. Soc. London 6: 264 (1851), como ‘Fitz-Roya’, nom. & orth. cons. Tipo: F. patagonica Hook.f. ex Lindl. (= F. cupressoides (Molina) I.M.Johnst. ≡ Pinus cupressoides Molina) Sinónimo: Cupresstellata J.Nelson, Pinaceae: 60 (1866). Tipo: Cupresstellata patagonica (Hook.f. ex Lindl.) J.Nelson (≡ Fitzroya patagonica Hook.f. ex Lindl.) 11.17. Callitris Vent., Decas Gen. 10 (1808). Tipo: C. rhomboidea R.Br. ex Rich. & A.Rich. Sinónimos: Frenela Mirb., Mém. Mus. Hist. Nat. 13: 30, 74 (1825), nom. illeg. Tipo: Frenela rhomboidea (R.Br. ex Rich & A.Rich.) Endl., por tipificación (≡ Callitris rhomboidea R.Br. ex Rich. & A.Rich.) Cyparissia Hoffmanns., Preis-Verzeichn. Pfl., ed. 7: 20 (1833), nom. illeg. Tipo: C. australis (Pers.) Hoffmanns. (≡ Cupressus australis Pers. = Callitris rhomboidea R.Br. ex Rich. & A.Rich.) Octoclinis F.Muell., Trans. & Proc. Philos. Inst. Victoria 2(1): 21 (1857). Tipo: O. macleayana F.Muel l. Laechhardtia Gordon, Pinetum Suppl.: 40 (1862). Tipo: L. macleayana Gordon, nom. illeg. (≡ Frenela variabilis Carr.) Nothocallitris A.V.Bobrov & Melikian, Komarovia 4: 85 (2006). Tipo: N. sulcata (Parl.) A.V.Bobrov & Melikian (≡ Callitris sulcata Parl.). 11.18. Actinostrobus Miq. en J.G.C. Lehmann, Pl. Preiss. 1: 644 (1845). Tipo: A. pyramidalis Miq. 11.19. Neocallitropsis Florin, Palaeontographica, Abt. B, Paläophytol. 85B: 590 (1944). Tipo: N. araucarioides (Compton) Florin (≡ Callitropsis araucarioides Compton) Sinónimo: Callitropsis Compton, J. Linn. Soc., Bot. 45: 432 (1922), nom. illeg., non Oersted (1864). Tipo: C. araucarioides Compton 11.20. Thujopsis Siebold & Zucc. ex Endl., Gen. Suppl. 2: 24 (1842), nom. cons. Tipo: T. dolabrata (Thunb. ex L.f.) Siebold & Zucc. (≡ Thuja dolabrata Thunb. ex L.f.) Sinónimo: Dolophyllum Salisb., J. Sci. Arts (London) 2: 313 (1817), nom. rej. Tipo: Thuja dolabrata Thunb. ex L.f. 11.21. Thuja L., Sp. Pl. 2: 1002 (1753). Tipo: T. occidentalis L. Thya Adans., Fam. Pl. 2: 480 (1763), nom. illeg. 11.22. Fokienia A.Henry & H.H.Thomas, Gard. Chron., ser. 3. 49: 67 (1911). Tipo: F. hodginsii (Dunn) A.Henry & H.H.Thomas (≡ Cupressus hodginsii Dunn) 11.23. Chamaecyparis Spach, Hist. Nat. Vég. Phan. 11: 329 (1841). Tipo: C. sphaeroidea Spach, nom. illeg. (≡ C. thyoides (L.) Britton, Sterns & Poggenb. ≡ Cupressus thyoides L.). Sinónimos: Retinispora Siebold & Zucc., Fl. Jap. 2: 36 (1844). Tipo: R. obtusa Siebold & Zucc. Shishindenia Makino ex Koidz., Acta Phytotax. Geobot. 9: 101 (1940). Tipo: S. ericoides (Boehm.) Makino ex Koidz. (≡ Chamaecyparis obtusa var. ericoides Boehm.). Nota: Chamaecyparis obtusa 'Ericoides' es un cultivar, no una variedad natural de C. obtusa. 11.24. Cupressus L., Sp. Pl. 2: 1002 (1753). Tipo: C. sempervirens L. Sinónimos: Callitropsis Oerst., Vidensk. Meddel. Dansk Naturhist. Foren. Kjøbenhavn 1864: 32. (1864), nom. rej. prop. Tipo: C. nootkatensis (D.Don) Florin (≡ Cupressus nootkatensis D.Don). Xanthocyparis Farjon & T.H.Nguyên, en Farjon et al., Novon 12: 179 (2002), nom. cons. prop. Tipo: X. vietnamensis Farjon & T.H.Nguyên. Tassilicyparis A.V.Bobrov & Melikian, Komarovia 4: 72 (2006). Tipo: T. dupreziana (A.Camus) A.V.Bobrov & Melikian (≡ Cupressus dupreziana A.Camus). Platycyparis A.V.Bobrov & Melikian, Komarovia 4: 73 (2006). Tipo: P. funebris (Endl.) A.V.Bobrov & Melikian (≡ Cupressus funebris Endl.). Hesperocyparis Bartel & R.A.Price, Phytologia 91: 179 (2009). Tipo: H. macrocarpa (Hartw. ex Gordon) Bartel (≡ Cupressus macrocarpa Hartw. ex Gordon) Neocupressus de Laub., Novon 19: 301 (2009), nom. illeg. Tipo: N. macrocarpa (Hartw. ex Gordon) de Laub. (≡ Cupressus macrocarpa Hartw. ex Gordon) Nota: Adams et al. (2009) mostró que Cupressus formaba dos clados: el clado del Viejo Mundo de Cupressus era hermano de Juniperus, mientras que el clado del Nuevo Mundo de Cupressus (Hesperocyparis) inclía a Xanthocyparis vietnamensis y a Callitropsis nootkatensis. Sin embargo, Mao et al. (2010) mostró que Cupressus en su sentido más amplio incluyendo a Xanthocyparis y a Callitropsis es monofilético con sustento débil. Hasta que se llegue a la resolución de la posición filogenética de Cupressus, aquí se toma una opción conservativa y se decide posicionar a Cupressus en sentido amplio, incluyendo a Callitropsis, Hesperocyparis y a Xanthocyparis. 11.25. Juniperus L., Sp. Pl. 2: 1038 (1753). Tipo: J. communis L. Sinónimos: Sabina Mill., Gard. Dict. Abr., ed. 4, 3 (1754). Tipo: S. vulgaris Antoine (≡ Juniperus sabina L.) Cedrus Duhamel, Traité Arb. Arbust. 1: xxviii, 139. t. 52 (1755), nom. rej. Tipo: No designado. Thujiaecarpus Trautv., Pl. Imag. 11 (1844). Tipo: T. juniperinus Trautv., nom. illeg. (= Juniperus oblonga M.Bieb. = J. communis var. saxatilis Pall.). Arceuthos Antoine & Kotschy, Oesterr. Bot. Wochenbl. 4: 249 (1854). Tipo: A. drupacea (Labill.) Antoine & Kotschy (≡ Juniperus drupacea Labill.) Sabinella Nakai, Tyosen-Sanrin 165: 14 (1938). Tipo: S. phoenicea (L.) Nakai (≡ Juniperus phoenicea L.) 11.26. Calocedrus Kurz, J. Bot. 11: 196 (1873). Tipo: C. macrolepis Kurz Sinónimo: Heyderia C.Koch, Dendrologie 2(2): 177 (1873), nom. illeg., non Link (1833, fungus). Tipo: H. decurrens (Torrey) C.Koch (≡ Calocedrus decurrens (Torrey) Florin ≡ Libocedrus decurrens Torrey). 11.27. Tetraclinis Masters, J. Roy. Hort. Soc. 14: 250 (1892). Tipo: T. articulata (Vahl) Masters (≡ Thuja articulata Vahl) 11.28. Platycladus Spach, Hist. Nat. Vég. Phan. 11: 333 (1841). Tipo: P. stricta Spach, nom. illeg. (= P. orientalis (L.) Franco ≡ Thuja orientalis L.) Sinónimos: Biota (D.Don) Endl., Syn. Conif.: 46 (1847), nom. illeg., non Cass. (1825). Tipo: B. orientalis (L.) Endl. (≡ Thuja orientalis L.) 11.29. Microbiota Komarov, Bot. Mater. Gerb. Glavn. Bot. Sada RSFSR 4(23/24): 180 (1923). Tipo: M. decussata Komarov Importancia económica La familia produce madera altamente valorada. Cryptomeria, Chamaecyparis, Juniperus, Sequoia, Taxodium, Thuja y muchos otros géneros son aptos para construcción de viviendas, de vías de ferrocarril, para tablones de pisos y puertas, ataúdes, "shingles", construcción de barcos, paneles de revestimiento, lápices de madera, y muchos otros propósitos. Muchas maderas de esta familia tienen fragancias naturales y han sido usadas como antipolillas naturales en armarios y cofres y en la manufactura de perfumes. Los conos de Juniperus communis son usados para saborizar la ginebra. El polen de Juniperus contiene uno de los más potentes alérgenos que se transportan por aire, y el tremento monto de polen producido por este género está altamente correlacionado con alergias nasales, del sinus y pulmonares en humanos y animales domésticos. Chamaecyparis, Cupressus, Juniperus, Platycladus, Thuja'' y otros géneros han sido cultivados extensivamente como ornamentales. Referencias Bibliografía Judd, Campbell, Kellogg, Stevens, Donoghue. 2007. Plant Systematics, a phylogenetic approach, third edition. Sinauer associates, inc. USA. Enlaces externos Stevens, P. F. 2001 en adelante. Angiosperm Phylogeny Website Versión 7, mayo de 2006 .
300_0
Commelinaceae
Las comelináceas (nombre científico Commelinaceae) forman una familia de plantas monocotiledóneas representadas por hierbas carnosas, a veces suculentas, con hojas planas o con forma de V en el corte transversal, en la base de las hojas con una vaina cerrada. La flor posee un perianto dividido en 3 sépalos y 3 pétalos (aunque a veces el tercer pétalo, de posición abaxial, es de otro color y pequeño e inconspicuo, pareciendo que hay solo dos pétalos); sus estambres se caracterizan por poseer pelos en sus filamentos. Las inflorescencias, que usualmente nacen por encima de brácteas grandes y foliosas, son cimas con muchas flores, y muchas veces son opuestas a las hojas. La familia fue reconocida por sistemas de clasificación modernos como el sistema de clasificación APG III (2009) y el APWeb. Son nativas de regiones tropicales y templadas de todo el mundo salvo Europa. Las flores de las comelináceas están abiertas por un solo día (son fugaces) y frecuentemente son azules o rosas. Muchas de ellas son bien conocidas como ornamentales. Descripción Introducción teórica en Terminología descriptiva de las plantas Hierbas perennes, a veces suculentas, con tallos bien desarrollados que son más o menos hinchados en los nudos, o tallos a veces cortos. Muchas veces con células de mucílago o canales conteniendo rafidios. Pelos simples, de una capa de células de espesor o unicelulares. Toda la superficie de la planta típicamente lleva "micropelos" de 3 células, glandulares. Hojas alternas, dísticas o espirales, esparcidas a lo largo del tallo, simples, delgadas o algo expandidas, planas a agudamente dobladas (con forma de V en el corte transversal). Muchas veces con las mitades opuestas enrolladas separadamente contra el medio adaxialmente en el brote, temprano en el desarrollo. Hojas de margen entero, con venación paralela, con vaina basal cerrada. Estomas tetracíticos. Sin estípulas. Inflorescencias determinadas, compuestas por pocas a muchas cimas helicoides, a veces reducidas a una flor solitaria, o un racimo, terminal o axilar, muchas veces por encima de una bráctea foliosa doblada. Las flores muchas veces penetrando la bráctea. Flores usualmente bisexuales, de simetría radial a bilateral, con perianto diferenciado en cáliz y corola. Hipóginas. 3 sépalos, usualmente separados pero a veces basalmente fusionados o lóbulos, imbricados o con estivación abierta. 3 pétalos, separados y usualmente con uña a connados, y entonces la corola con un tubo corto a elongado y lóbulos, la corola se autodigiere rápido (característicamente efímera), 1 pétalo (el anterior) a veces de otro color o reducido, imbricada y arrugada en el pimpollo. Estambres 6 en 2 series, o 3 y entonces muchas veces con 3 estaminodios (raramente 1 estambre fértil), apostémonos (separados entre sí y libres de las otras piezas de la flor). Filamentos esbeltos, separados a ligeramente connados, a veces adnatos a los pétalos, muchas veces con pelos conspicuos moniliformes (con forma de gotas). Los estambres fértiles a veces dimórficos. Anteras basifijas, versátiles, de dehiscencia longitudinal (ocasionalmente con poros apicales y basales), con el conectivo muchas veces extendido. Anterodios (anteras estériles) presentes en los estaminodios. Polen usualmente monosulcado. 3 carpelos (el medio anterior), conados, ovario súpero, con placentación axilar, 1 estigma, capitado, con flecos, o 3-lobado. 3 lóculos o 1 en el ápice solamente el 1-2 (con el otro lóculo sin desarrollar o ausente). Óvulos 1 a muchos en cada lóculo, anátropos u ortótropos, bitégmicos. Sin nectarios. El fruto es usualmente una cápsula loculicida (ocasionalmente una baya o una cápsula indehiscente). Las semillas con una capa cónica conspicua, raramente aladas o ariladas, con endosperma con almidón. Ecología Ampliamente distribuidos en regiones tropicales a subtempladas de todo el mundo salvo Europa. Las flores de Commelinaceae funcionan solo un día a lo sumo. La polinización es usualmente realizada por abejas o avispas que juntan polen. Es interesante que los estaminodios son usualmente más conspicuos que los estambres, y las flores de simetría bilateral son asidas de forma que el sépalo impar quede adaxial. Las flores de esta familia pueden engañar a las abejas con sus estaminodios aparentando tener más polen que lo que tienen en realidad. La autopolinización es común en algunas especies. Filogenia Introducción teórica en Filogenia La monofilia de Commelinaceae es sostenida tanto por datos morfológicos como moleculares (Linder y Kellogg 1995, Evans et al. 2000a). Commelinaceae es hermana de Haemodoraceae, y estas dos pueden a su vez ser hermanas de Philydraceae. Ver Commelinales para una discusión sobre estos clados. El género Cartonema puede ser hermano del resto de los miembros de la familia, tiene flores amarillas radialmente simétricas, y no tiene ni los micropelos glandulares ni los canales de rafidios presentes en los demás taxones (Faden 1998, Evans et al. 2000a). La mayor parte de los géneros de Commelinaceae pertenecen a dos grandes tribus (Faden y Hunt 1991, Tucker 1989): Tradescantieae (25 géneros, entre ellos Callisia, Tradescantia, y Gibasis), y Commelineae (13 géneros, entre ellos Commelina, Murdannia, y Aneilema). El primer grupo se caracteriza por polen sin espinas, cromosomas medios a grandes, flores de simetría radial, y en el filamento pelos (cuando presentes) moniliformes. El último grupo tiene polen espinoso, pequeños cromosomas, flores de simetría radial a bilateral, y en el filamento pelos (cuando presentes) usualmente no moniliformes. Ha habido mucha convergencia en los caracteres florales dentro de la familia debido a una fuerte selección del polinizador, y los caracteres anatómicos (por ejemplo la estructura del estoma) pueden ser útiles en diagnosticar a los clados más grandes (Evans et al. 2000a, b, 2003). Comprende las siguientes subfamilia Cartonematoideae Commelinoideae Taxonomía Introducción teórica en Taxonomía La familia fue reconocida por el APG III (2009), el Linear APG III (2009) le asignó el número de familia 78. La familia ya había sido reconocida por el APG II (2003). Consta de 40 géneros, 650 especies. Los géneros más representados son Commelina (230 especies), Tradescantia (74 especies), Aneilema (60 especies), Murdannia (45 especies), y Callisia (20 especies). La lista de géneros y sus sinónimos, según el APWeb (visitado en enero de 2009): Aclisia E.Mey. = Pollia Thunb. Aetheolirion Forman Amischophacelus R.S.Rao & Kammathy = Cyanotis D.Don Amischotolype Hassk. Aneilema R.Br. Anthericopsis Engl. Aploleia Raf. = Callisia Loefl. Athyrocarpus Schltdl. ex Benth. = Commelina L. Ballya Brenan = Aneilema R.Br. Baoulia A.Chev. = Murdannia Royle Belosynapsis Hassk. Buforrestia C.B.Clarke Callisia Loefl. Campelia Rich. = Tradescantia L. Cartonema R.Br. Chamaeanthus Ule (SUH) = Geogenanthus Ule Cochliostema Lem. Coleotrype C.B.Clarke Commelina L. Commelinantia Tharp = Tinantia Scheidw. Commelinopsis Pichon = Commelina L. Cuthbertia Small = Callisia Loefl. Cyanotis D.Don Cymbispatha Pichon = Tradescantia L. Descantaria Schltdl. = Tripogandra Raf. Dichorisandra J.C.Mikan Dictyospermum Wight Donnellia C.B.Clarke ex Donn.Sm. (SUH) = Tripogandra Raf. Elasis D.R.Hunt Floscopa Lour. Forrestia A.Rich. (SUH) = Amischotolype Hassk. Geogenanthus Ule Gibasis Raf. Gibasoides D.R.Hunt Gillettia Rendle = Anthericopsis Engl. Hadrodemas H.E.Moore = Callisia Loefl. Leiandra Raf. = Callisia Loefl. Leptocallisia (Benth.) Pichon = Callisia Loefl. Leptorhoeo C.B.Clarke = Callisia Loefl. Mandonia Hassk. (SUH) = Tradescantia L. Matudanthus D.R.Hunt Murdannia Royle Neodonnellia Rose = Tripogandra Raf. Neomandonia Hutch. = Tradescantia L. Neotreleasea Rose (SUS) = Tradescantia L. Palisota Rchb. ex Endl. Phaeosphaerion Hassk. = Commelina L. Phyodina Raf. = Callisia Loefl. Pollia Thunb. Polyspatha Benth. Porandra D.Y.Hong = Amischotolype Hassk. Pseudoparis H.Perrier Pyrrheima Hassk. = Siderasis Raf. Rectanthera O.Deg. = Callisia Loefl. Rhoeo Hance = Tradescantia L. Rhopalephora Hassk. Sauvallea W.Wright Separotheca Waterf. = Tradescantia L. Setcreasea K.Schum. & Syd. = Tradescantia L. Siderasis Raf. Spatholirion Ridl. Spironema Lindl. (SUH) = Callisia Loefl. Stanfieldiella Brenan Streptolirion Edgew. Thyrsanthemum Pichon Tinantia Scheidw. Tonningia Juss. (SUH) = Cyanotis D.Don Tradescantella Small = Callisia Loefl. Tradescantia L. Treleasea Rose (SUH) = Tradescantia L. Tricarpelema J.K.Morton Triceratella Brenan Tripogandra Raf. Weldenia Schult.f. Zebrina Schnizl. = Tradescantia L. A veces se excluye Cartonemataceae en su propia familia (por ejemplo en Watson y Dallwitz 2007). Importancia económica La familia posee cultivares ornamentales, como Rhoeo, Tradescantia y Zebrina'', y algunas especies utilizadas localmente como medicinales y comestibles. Véase también Clasificación de los organismos vegetales Referencias Bibliografía Enlaces externos
302_0
Constante física
En ciencias se llama constante física al valor de una magnitud física que, fijado un sistema de unidades, permanece invariable en los procesos físicos a lo largo del tiempo. En contraste, una constante matemática representa un valor invariable que no está implicado directamente en ningún proceso físico. Existen muchas constantes físicas; algunas de las más conocidas son la constante reducida de Planck (), la constante de gravitación (), la velocidad de la luz (), la permitividad en el vacío (), la permeabilidad magnética en el vacío () y la carga elemental (). Todas estas, por ser tan fundamentales, son llamadas constantes universales. Por otro lado, desde 1937 Paul Dirac y otros científicos han especulado que el valor de las constantes físicas podría decrecer en proporción a la edad del Universo. Hasta la fecha ningún experimento ha indicado que esto sea así, aunque se ha logrado calcular las cotas máximas de esa hipotética variación de las constantes. Las cotas máximas de variación anual resultan, en todo caso, muy pequeñas, siendo de 10-5 para la estructura fina y 10-11 para la constante de gravitación. El tema sigue siendo motivo de controversia actualmente. Algunas consideraciones Constantes dimensionales y adimensionales Las constantes físicas pueden tener dimensiones como, por ejemplo, la velocidad de la luz en el vacío (que en el SI se expresa en metros por segundo), mientras que otras, como la constante de estructura fina () que caracteriza la interacción entre electrones y fotones, es adimensional. A menos que se usen unidades naturales, el valor de las constantes que tengan dimensiones dependerá del sistema de unidades usado. Por el contrario, las constantes adimensionales son independientes del sistema de unidades usado y se las conoce como constantes físicas fundamentales. La constante de estructura fina es, probablemente, la mejor conocida de estas constantes adimensionales. Las razones de las masas (u otras propiedades) de las partículas son también constantes físicas fundamentales. Las constantes físicas y la vida en el Universo En muchas de estas constantes ocurre un ajuste preciso que hace compatible la existencia del ser humano en el cosmos. Si el valor de ciertas de esas constantes fuese tan solo ligeramente diferente al que poseen, el Universo debería ser radicalmente distinto, haciendo imposible que la vida, tal como la conocemos, pudiese emerger. El hecho de que el Universo esté debidamente calibrado y ajustado para acoger vida inteligente ha intrigado a muchos y ha sido también motivo de debate científico y filosófico. Quizá una de las mejores respuestas que explica el ajuste de las constantes es la que da el principio antrópico. Este afirma que dado que el ser humano está aquí, el Universo ha de ser un universo capaz de albergarlo y, por tanto, no cabe preguntarse sobre la posibilidad de que dichos valores fuesen distintos ya que, de ser así, no habría nadie que pudiese preguntárselo. Tablas de constantes físicas NOTA: A pesar que muchas propiedades de materiales y partículas son constantes, no se muestran en las tablas ya que son específicas de los respectivos materiales o partículas. Tabla de constantes universales Tabla de constantes electromagnéticas Tabla de constantes atómicas y nucleares Tabla de constantes físico-químicas Notas 1Los valores se dan en la llamada forma concisa; El número entre paréntesis es el error absoluto, que se obtiene de multiplicar el propio valor por el error relativo. 2Este es el valor adoptado internacionalmente para realizar representaciones del voltio usando el efecto Josephson. 3Este es el valor adoptado internacionalmente para realizar representaciones del ohmio usando el efecto cuántico de Hall. Véase también Constante de Hubble Ley científica CODATA Unidades naturales Velocidad de la luz variable Referencias CODATA Recommendations - Últimos valores recomendados para las constantes físicas por el CODATA (2002)
304_0
Ciencias de la computación
Las ciencias de la computación estudian los fundamentos teóricos de la información y el cómputo, junto con técnicas prácticas para la implementación y aplicación de estos fundamentos teóricos. Las ciencias de la computación o ciencias de la informática son las ciencias formales que abarcan las bases teóricas de la información y la computación, así como su aplicación en los sistemas informáticos. El cuerpo de conocimiento de las ciencias de la computación es frecuentemente descrito como el estudio sistemático de los procesos algorítmicos que describen y transforman información: su teoría, análisis, diseño, eficiencia, implementación, algoritmos sistematizados y aplicación. En términos más específicos se trata del estudio sistemático de la factibilidad, estructura, expresión y mecanización de procedimientos metódicos (o algoritmos) que subyacen en la adquisición, representación, procesamiento, almacenamiento, comunicación y acceso a la información. La información puede estar codificada en forma de bits en una memoria de computadora, o en algún otro objeto, como los genes y proteínas en una célula biológica. Existen diversas ramas o disciplinas dentro de las ciencias de la computación; algunos resaltan los resultados específicos del cómputo (como los gráficos por computadora), mientras que otros (como la teoría de la complejidad computacional) se relacionan con propiedades de los algoritmos usados al realizar cómputo; y otros se enfocan en los problemas que requieren la implementación de sistemas informáticos. Por ejemplo, los estudios de la teoría de lenguajes de programación describen un cómputo, mientras que la programación de computadoras aplica lenguajes de programación específicos para desarrollar una solución a un problema computacional específico. Un computólogo se especializa en teoría de la computación y en el diseño e implementación de sistemas computacionales. Según Peter J. Denning, la cuestión fundamental en que se basa la ciencia de la computación es: «¿Qué puede ser (eficientemente) automatizado?». Historia La historia de la ciencia de la computación antecede a la invención del computador digital moderno. Antes de la década de 1920, el término computador se refería a un ser humano que realizaba cálculos. Los primeros cimientos de lo que se convertiría en ciencias de la computación son anteriores a la invención de la computadora digital moderna. Se trataba de máquinas para el cálculo de las tareas numéricas fijas, como el ábaco han existido desde la antigüedad, ayudando en cálculos tales como la multiplicación y la división. Además, los algoritmos para realizar cálculos han existido desde la antigüedad, incluso antes de que se crearan equipos de computación sofisticados. Los antiguos sánscritos tratadistas Shulba Sutras, o "Reglas de la cuerda", es un libro de algoritmos escritos en 800 a. C. para la construcción de objetos geométricos como altares utilizando una clavija y cuerda, un precursor temprano del campo moderno de la geometría computacional. Blaise Pascal diseñó y construyó la primera calculadora mecánica de trabajo, la Pascalina, en 1642. En 1673 Gottfried Leibniz creó una calculadora mecánica digital, llamada Stepped Reckoner. Él puede ser considerado el primer computólogo y teórico de la información, entre otras razones, porque fue el primero en documentar el sistema numérico binario. En 1820, Charles Xavier Thomas de Colmar lanzó la calculadora mecánica industrial cuando lanzó su simplificado aritmómetro, que fue la primera máquina de calcular lo suficientemente fuerte y lo suficientemente fiable para ser usada a diario en un entorno industrial. Charles Babbage inició el diseño de la primera calculadora automática mecánica, su máquina diferencial, en 1822, que finalmente le dio la idea de la primera calculadora mecánica programable, su máquina analítica. Él comenzó a desarrollar esta máquina en 1834 y en menos de dos años había esbozado muchas de las características más destacadas del moderno equipo. Un paso fundamental fue la adopción de un sistema de tarjetas perforadas derivado del telar de Jacquard haciéndolo infinitamente programable. En 1843, durante la traducción de un artículo francés sobre la máquina analítica, Ada Lovelace escribió, en una de las muchas notas que incluye el artículo, un algoritmo para calcular los números de Bernoulli, que es considerado como el primer programa de ordenador. Alrededor de 1885, Herman Hollerith inventó la máquina tabuladora, que usaba tarjetas perforadas para procesar información estadística; finalmente, su compañía se convirtió en parte de IBM. En 1937, cien años después del sueño imposible de Babbage, Howard Aiken fue convencido por IBM (que estaban manufacturando todo tipo de equipos de tarjetas perforadas y así como la calculadora de negocio) para desarrollar su calculadora programable gigante, el ASCC/Harvard Mark I. Se basó en la máquina analítica de Babbage, que a su vez utiliza las tarjetas perforadas y una unidad central de cálculo. Cuando se terminó de construir la máquina, algunas personas lo aclamaron como «el sueño de Babbage hecho realidad». Nuevas máquinas Durante la década de 1940, conforme se desarrollaban las nuevas y más poderosas máquinas para computar, el término computador se comenzó a utilizar para referirse a las máquinas y ya no a sus antecesores humanos. Cuando se hizo evidente que las computadoras no solamente podrían utilizarse para realizar cálculos matemáticos, el campo de las ciencias de la computación se amplió para estudiar cómputo en general. Las ciencias de la computación empezaron a establecerse como una disciplina académica distinta de las demás en la década de 1950 y principios de 1960. Entonces surgió el primer programa de grado universitario del mundo, el Cambridge Diploma in Computer Science, del Cambridge Computer Lab (Departamento de Ciencias de la Computación) de la Universidad de Cambridge, en 1953. El primer programa de grado universitario en ciencias de la informática en Estados Unidos se formó en la universidad de Purdue en 1962. Desde que se dispone ordenadores prácticos, muchas aplicaciones la de las ciencias de la computación se convirtieron en diferentes áreas de estudio en sus propios términos. Aunque inicialmente muchos creyeron que era imposible que las computadoras en sí mismas podrían constituir en realidad un campo científico de estudio, a finales de los años cincuenta se fue volviendo gradualmente aceptada entre la población mayor académica. La disciplina científica de las ciencias de la computación nace a principios de 1940 con la confluencia de la teoría de algoritmos, lógica matemática y la invención del programa almacenado en una computadora electrónica. Ejemplos de esto son los trabajos de Alan Turing, Alonzo Church y Kurt Gödel en 1930 acerca de los algoritmos y su trabajo en sistemas de reglas (véase Cálculo Lambda, Máquina de Turing y Problemas Indecidibles), los algoritmos creados por Augusta Ada sesenta años antes, la computadora analógica construida por Vannevar Bush en 1920 y las computadoras eléctricas construidas por Howard Aiken y Konrad Zuse en 1930. Los escritos de John Von Neumann dieron una profundidad intelectual considerable a esta disciplina emergente a mediados de la década de 1940. En 1960, había suficientemente cuerpo de conocimiento que ameritaba la creación de departamentos académicos y programas de grado universitario para esta disciplina. IBM es reconocida como la marca que formó parte de la revolución de las ciencias de la computación durante ese tiempo. IBM (abreviación de International Business Machines) lanzó la IBM 704 y más tarde la IBM 709 computadoras, que fueron ampliamente utilizadas durante el período de exploración de este tipo de dispositivos. "Sin embargo, el trabajo con la IBM [equipo] era frustrante ... si te equivocas en una letra de alguna instrucción, el programa se arruinaría, y se tendría que empezar todo el proceso otra vez". Durante la década de 1950, la disciplina de las ciencias de la computación estaba en su etapa de desarrollo, y estos problemas eran algo común. El tiempo ha dado mejoras significativas en la capacidad de uso y la eficacia de la tecnología de la computación. La sociedad moderna ha presenciado un cambio significativo en los usuarios de la tecnología en cómputo, de ser utilizada únicamente por expertos, profesionales y científicos, a una base de usuarios que es casi omnipresente a la teoría con la cual se desarrolló y funciona este tipo de tecnología. Inicialmente, las computadoras eran bastante costosas, y era necesario un cierto grado de ayuda humana para el uso eficiente - en parte de operadores de computadoras profesionales. Como la adopción equipo se hizo más generalizado y asequible, se necesitaba menos asistencia humana en el uso común. Mayores logros A pesar de su corto tiempo de ser una disciplina científica formal, las ciencias de la computación han hecho un gran número de contribuciones importantes a la ciencia y la sociedad –de hecho, junto con la electrónica, es una ciencia fundacional de la época actual de la historia humana llamada Era de la información y la Revolución de la Información, visto como el tercer gran salto en el progreso tecnológico humano después de la Revolución Industrial (1750-1850) y la revolución neolítica (8000-5000 a. C.). Estas contribuciones a la humanidad incluyen: El comienzo de la "Revolución digital", la cual incluye la actual Era de la información y el Internet. Una definición formal de computación y computabilidad, y una demostración formal de que existen problemas que son computacionalmente irresolubles e intratables. El concepto de lenguaje de programación, una herramienta para la expresión precisa de información metodológica a varios niveles de abstracción. En criptología, el criptoanálisis de Enigma fue un factor importante, el cual contribuyó a la victoria Aliada en la Segunda Guerra Mundial. El cómputo científico permitió la evaluación de procesos y situaciones de gran complejidad, así como la experimentación mediante software. También permitió el avance en investigación de la mente humana y el mapeo del genoma humano junto el Proyecto Genoma Humano. Proyectos de cómputo distribuido tales como Folding@home que estudiaron el plegamiento de proteínas. Computación gráfica e imágenes generadas por computadora se volvieron omnipresentes en la era moderna del entretenimiento, sobre todo en televisión, cine, publicidad, animación y videojuegos. Simulación de varios procesos, incluyendo dinámica de fluidos computacionales, sistemas físicos, eléctricos, electrónicos y de circuitos, así como las sociedades y las situaciones sociales (sobre todo juegos de guerra), junto con sus hábitats, entre muchos otros. Las computadoras modernas permiten la optimización de diseños tales como aviones completos. Se destaca el diseño de circuitos eléctricos y electrónicos con SPICE, así como software para la realización física de nuevos diseños. Este último incluye soporte lógico de diseño esencial para circuito integrados. La Inteligencia artificial (IA) es cada vez más importante, ya que se vuelve más eficiente y compleja con el paso del tiempo. Existen muchas aplicaciones de la IA, algunas se pueden ver en el hogar, tales como aspiradores robóticos. También está presente en los videojuegos y en el campo de batalla moderno en aviones no tripulados, sistemas antimisiles, y robots de apoyo para escuadrones. Filosofía Algunos científicos de la computación han argumentado a favor de la distinción de tres paradigmas diferentes en ciencias de la computación. Peter Wegner ha argumentado que esos paradigmas son la ciencia, la tecnología y las matemáticas. El grupo de investigación de Peter Denning argumentó que son la abstracción (modelado), y diseño. Amnon H. Eden lo describe como el «paradigma racionalista» (el cual trata a las ciencias de la computación como una rama de las matemáticas, la cual prevalece en ciencias de la computación teórica y principalmente emplea el razonamiento deductivo), el paradigma tecnocrático (que podría ser encontrado en enfoques ingenieriles, más prominente en la ingeniería de software) y el paradigma científico (que se enfoca a objetos relacionados con la computación desde la perspectiva empírica de las ciencias naturales identificable en algunas ramas de la inteligencia artificial). A pesar de su primera proposición en 1956, la locución «ciencias de la computación» aparece en 1959 en un artículo de la revista Communications of the ACM (prestigiada publicación científica destinada a lectores con experiencia en todos los ámbitos de la computación y los sistemas de información), en el cual Louis Fein discute sobre la creación de una Escuela de Estudios de Posgrado en Ciencias Computacionales análoga a la creación de Harvard Business School en 1921, justificando el nombre con el argumento de que: Como la ciencia administrativa, el tema o área de conocimiento puede ser aplicado, es de carácter interdisciplinario y que cuenta con las características típicas de una disciplina académica. Sus esfuerzos y los de otros, como el analista numérico George Forsythe, fueron recompensados: universidades pasaron a crear este tipo de programas de estudio, a partir de 1962 en Purdue.<ref>Donald Knuth (1972). "George Forsythe and the Development of Computer Science" . Comms. ACM.</ref> A pesar del nombre de esta disciplina académica, una cantidad significativa de tópicos en ciencias de la computación no involucran el estudio de las computadoras, por esta razón muchos nombres alternativos han sido propuestos. Algunos departamentos de universidades prefieren la locución «ciencias de la computación» para hacer énfasis en esta diferencia. El científico danés Peter Naur sugirió el término datología, para reflejar el hecho de que esta disciplina científica gira en torno a los datos y a al tratamiento de estos, mientras que no necesariamente involucra a las computadoras. La primera institución científica en usar el término fue el Departamento de Datología de la Universidad de Copenhague, fundado en 1969, con Peter Naur como profesor de datología. El término es usado en países escandinavos. En los primeros años de la computación, un número de terminus para los practicantes del campo de la computación fueron propuestos en la revista Communications of the ACM – turingeniero, turologo, hombre de los diagramas de flujo, matemático meta-aplicado, y epistemologo aplicado. Tres meses después en esa misma publicación científica, el término computólogo fue sugerido. El siguiente año en la misma publicación surgió el término hypologo. El término computica también ha sido sugerido. En Europa, términos derivados de traducciones de la expresión "automatic information" (e.g. "informazione automatica" en italiano) or "información y matemáticas" son frecuentemente usados, e.g. informatique (francés), Informatik (alemán), Informática (Italia, Países Bajos), Informática (España y Portugal), informatika (lenguas eslavas) o pliroforiki (πληροφορική, que significa informática) en Griego. Palabras similares han sido adoptadas en algunos lugares del Reino Unido, por ejemplo en la Universidad de Edimburgo. Pero estas no reflejan el aspecto de la computabilidad, por esta razón en un contexto de investigación científica tanto académica como industrial el término ciencias de la computación es mayormente usado en publicaciones y conferencias científicas. Campos de estudio Como disciplina científica, las ciencias de la computación abarca una gama de temas, desde los estudios teóricos de los algoritmos y los límites de la computación a los problemas prácticos de la implementación de sistemas computacionales en hardware y software. Computing Sciences Acreditation Board o la Junta de Acreditación en Ciencias de la Computación. –Compuesta por representantes de la Association for Computing Machinery (ACM), y la Sociedad de Computación IEEE (IEEE-CS)– identifica cuatro áreas que considera cruciales para la disciplina de ciencias de la computación: teoría de la computación, algoritmos y estructuras de datos, metodología y lenguajes de programación, y arquitectura de computadoras. Además de estas cuatro áreas, C.S.A.B. también identifica ámbitos como la ingeniería de software, inteligencia artificial, redes de computadoras, sistemas de bases de datos, computación paralela, computación distribuida, la interacción persona-computador, gráficos por ordenador, sistemas operativos, cálculo numérico y simbólico siendo importantes áreas de las ciencias de la computación. El campo más amplio de la ciencia de la computación teórica abarca tanto la teoría clásica de la computación y una amplia gama de otros temas que se centran en los aspectos más abstractos, lógicos y matemáticos de la computación. Teoría de la computación De acuerdo a Peter J. Denning, la pregunta fundamental en ciencias de la computación es, «¿Qué puede ser eficientemente automatizado?» El estudio de la teoría de la computación está enfocado en responder preguntas fundamentales acerca de qué puede ser computado y qué cantidad de recursos son requeridos para ejecutar tales cómputos. En un esfuerzo por resolver esta pregunta, la teoría de la computabilidad examina qué problemas computacionales se pueden resolver en varios modelos teóricos de cómputo. La segunda pregunta está dirigida por la teoría de la complejidad computacional, que estudia los costos de tiempo y espacio asociados a diferentes enfoques para resolver una multitud de problemas computacionales. El famoso problema "¿P=NP?" es uno de los Problemas del milenio, es un problema abierto en ciencias de la computación. Teoría de la información y códigos La teoría de la información está relacionada con la cuantificación de la información. Fue desarrollada por Claude E. Shannon para desarrollar los límites fundamentales del procesamiento de señales así como sus operaciones, tales como compresión y almacenamiento de datos así como la comunicación de los datos de manera fiable. La teoría de códigos es un área de las matemáticas que busca resolver el problema de detectar y corregir errores al momento de transmitir información. Los códigos son usados para comprimir datos, criptografía y más recientemente para la codificación de redes. Los códigos son estudiados para el propósito de diseñar métodos eficientes y seguros para la transmisión de datos. Algoritmos y estructuras de datos Los algoritmos y las estructuras de datos son el estudio de métodos computacionales comúnmente usados así como su eficiencia computacional. Teoría de lenguajes de programación La teoría del lenguaje de programación es una rama de las ciencias de la computación que se ocupa del diseño, activación, análisis, caracterización y clasificación de los lenguaje de programación y sus características individuales, cae dentro de la disciplina de las ciencias de la computación, tanto en dependencia de las matemáticas y la lingüística. Es un área de investigación activa, con numerosas revistas académicas y conferencias especializadas en el tema. Métodos formales Los métodos formales son un tipo particular de la técnica basada en las matemáticas para la especificación formal, desarrollo y verificación formal de los sistemas de software y hardware. El uso de métodos formales para el diseño de soportes lógico y físico está motivado por la expectativa de que, la realización de un análisis matemático adecuado puede contribuir a la fiabilidad y robustez de un diseño. Estos forman una importante base teórica para la ingeniería de software, especialmente cuando está involucrado la seguridad o robustez. Los métodos formales son un complemento útil para las pruebas de software, ya que ayudan a evitar errores y también pueden dar un marco para hacer pruebas. Para su uso industrial, se requiere el apoyo de herramientas. Sin embargo, el alto costo de la utilización de métodos formales significa que por lo general solo se utilizan en el desarrollo de sistemas críticos de alta integridad donde la vida o la seguridad es de muy alta importancia. Los métodos formales se describen mejor como la aplicación de una amplia variedad de fundamentos teóricos de las ciencias de la computación, en particular la lógica computacional, lenguajes formales, teoría de autómatas y Semántica de lenguajes de programación pero también áreas como sistemas de tipos y tipos de datos algebraicos a problemas en la especificación y verificación de software y hardware. Ciencias de la computación aplicadas Las ciencias de la computación aplicadas tratan de identificar ciertos aspectos conceptuales y teóricos de las ciencias de la informática que pueden ser aplicados directamente para resolver problemas del mundo real. Inteligencia artificial Esta rama de las ciencias de la computación pretende o es requerida para la síntesis de procesos metaorientados tales como la resolución de problemas, toma de decisiones, la adaptación del medio ambiente, el aprendizaje y la comunicación que se encuentran en los seres humanos y los animales. Desde sus orígenes en la cibernética y en la Conferencia de Dartmouth (1956), la investigación en inteligencia artificial (IA) ha sido necesariamente multidisciplinaria, aprovechando áreas de especialización, tales como las matemáticas, la lógica simbólica, la semiótica, la ingeniería eléctrica, la filosofía de la mente, la neurofisiología, y la inteligencia social. La IA erróneamente es asociada en la mente popular con el desarrollo robótico, pero el principal campo de aplicación práctica ha sido como un componente integrado en las áreas de desarrollo de programas informáticos que requieren la comprensión y la modelación computacional, tales como las finanzas y la economía, la minería de datos y las ciencias físicas. El término fue acuñado por el científico de la computación y matemático John McCarthy en 1955. Arquitectura de computadoras La arquitectura de computadores u organización de computadoras digitales es el diseño conceptual y la estructura operacional fundamental de un sistema cómputo. Se centra en gran medida de la manera en que la unidad central de procesamiento realiza internamente y accede a las direcciones en la memoria. El campo involucra disciplinas de la ingeniería en computación y la ingeniería eléctrica, la selección y la interconexión de los componentes físicos para crear los equipos que cumplen funciones, de rendimiento, y costes. Análisis de rendimiento de computadoras Análisis de rendimiento del equipo es el estudio del trabajo que fluye a través de los equipos con el objetivo general de mejora de rendimiento y control de tiempo de respuesta, utilizando los recursos de manera eficiente, la eliminación de los cuellos de botella, y la predicción de rendimiento bajo cargas máximas previstas. Cómputo científico La ciencia computacional (o computación científica) es el campo de estudio que trata con la construcción de modelos matemáticos y técnicas de análisis cuantitativos, así como el uso de computadoras para analizar y resolver problemas científicos. En el uso práctico, es típicamente la aplicación de simulación por ordenador y otras formas de cálculo a los problemas en diversas disciplinas científicas. Redes de computadoras Esta rama de las ciencias de la computación tiene como objetivo gestionar la conectividad entre redes (LAN / WAN) de computadoras a nivel mundial. Sistemas concurrentes, paralelos y distribuidos Concurrencia es una propiedad de los sistemas en los que varios cálculos están ejecutando de forma simultánea, y, potencialmente, que interactúan entre sí. Un número de modelos matemáticos han sido desarrollados para el cálculo concurrente general, incluyendo las redes de Petri, cálculos de proceso y del modelo de máquina de acceso aleatorio en paralelo. Un sistema distribuido se extiende la idea de la simultaneidad en varios ordenadores conectados a través de una red. Las computadoras dentro del mismo sistema distribuido tienen su propia memoria privada, y la información es a menudo intercambiada entre sí para lograr un objetivo común. Bases de datos Una base de datos tiene la intención de organizar, almacenar y recuperar grandes cantidades de datos de forma sencilla. Bases de datos digitales se gestionan mediante sistemas de gestión de base de datos para almacenar, crear, mantener y consultar los datos, a través de modelos de bases de datos y lenguajes de consulta. Una base de datos es un conjunto de datos interrelacionados entre ellos mismos. Informática en salud Ciencia de la información El campo estudia la estructura, algoritmos, comportamiento e interacciones de los sistemas naturales y artificiales que guardan, procesan, acceden a y comunican información. También desarrolla sus propios fundamentos conceptuales y teóricos y emplea fundamentos desarrollados en otros campos. Una aplicación moderna es el Big Data, que consiste en el procesamiento de un conjunto de datos (provenientes de fuentes como por ejemplo: transacciones comerciales, formularios web, imágenes, videos, correos electrónicos, redes sociales, entre otros), los cuales son sometidos a herramientas informáticas de análisis que permiten extraer información valiosa para predecir comportamientos futuros y formular estrategias de toma decisiones. Ingeniería de software Ingeniería de software consiste en el estudio del diseño, activación y modificación del software con la finalidad de asegurarse de que es de alta calidad, asequible, fácil de mantener, y rápido de construir. Es un enfoque sistemático para el diseño de software, que implica la aplicación de prácticas de ingeniería de software. Los ingenieros de software comercian con la organización y análisis de software — no solo lidian con la creación o fabricación de un nuevo soporte lógico, sino también con su mantenimiento y disposición interna. Se prevé que estén entre las ocupaciones de más rápido crecimiento entre 2008 y 2018. Debido a la novedad de este subcampo, la educación formal en Ingeniería de software generalmente es parte de los planes de estudio de ciencias de la computación, la gran mayoría de ingenieros de software tienen un grado académico en ciencias de la computación sin tener relación con la ingeniería. Relación con otros campos Por ser una disciplina reciente, existen varias definiciones alternativas para la ciencia de la computación. Esta puede ser vista como una forma de ciencia, matemáticas o una nueva disciplina que no puede ser categorizada siguiendo los modelos actuales. Las ciencias de la computación frecuentemente se cruzan con otras áreas de investigación, tales como la física y la lingüística. Pero es con las matemáticas con las que se considera que tiene un grado mayor de relación. Eso es evidenciado por el hecho de que los primeros trabajos en el área fueran fuertemente influenciados por matemáticos como Kurt Gödel y Alan Turing. En la actualidad sigue habiendo un intercambio de ideas útil entre ambos campos en áreas como la lógica matemática, la teoría de categorías, la teoría de dominios, el álgebra y la geometría. Otro punto a destacar es que, a pesar de su nombre, las ciencias de la computación raramente involucran el estudio mismo de las máquinas conocidas como computadoras. De hecho, el renombrado científico Edsger Dijkstra es muy citado por la frase «Las ciencias de la computación están tan poco relacionadas con los ordenadores como la astronomía con los telescopios». La investigación en ciencias de la computación también suele relacionarse con otras disciplinas, como la ciencia cognitiva, la física (véase computación cuántica), la lingüística, etc. La relación entre las ciencias de la computación y la ingeniería de software es un tema muy discutido, por disputas sobre lo que realmente significa la lución «ingeniería de software» y sobre cómo se define a las ciencias de la computación. Algunas personas creen que la ingeniería de software sería un subconjunto de las ciencias de la informática. Otras, tomando en cuenta la relación entre otras disciplinas científicas y de la ingeniería, creen que el principal objetivo de las ciencias de la computación sería estudiar las propiedades del cómputo en general, mientras que el objetivo de la ingeniería de software sería diseñar cómputos específicos para lograr objetivos prácticos, con lo que se convertiría en disciplinas diferentes. Este punto de vista es el que sostiene, por ejemplo, Parnas (1998). Incluso hay otros que sostienen que no podría existir una ingeniería de software. Los aspectos académicos, políticos y de financiamiento en las áreas de ciencias de la computación tienden a verse influidos drásticamente por el criterio del departamento encargado de la investigación y la educación en cada universidad, que puede estar orientado a las matemática o a la ingeniería. Los departamentos de ciencias de la computación orientados a las matemáticas teóricas suelen alinearse del lado de la computación científica y las aplicaciones de cálculo numérico. La locución «computación científica», que no debe confundirse con ciencia de la computación, designa a todas aquellas prácticas destinadas a modelar, plantear experimentos y validar teorías científicas sirviéndose de medios informáticos. En estos casos la computación es una mera herramienta y el esfuerzo se dirige a avanzar en los campos objetivo (física, biología, mecánica de fluidos, radiotransmisión...), más que en la propia ciencia de la computación. Finalmente, el público en general algunas veces confunde la ciencia de la computación con áreas vocacionales que trabajan con computadoras o piensan que trata acerca de su propia experiencia con las computadoras, lo cual suele incluir actividades como los juegos, la navegación web y el procesamiento de texto. Sin embargo, el punto central de la ciencia de la computación va más allá de entender las propiedades de los programas que se emplean para ejecutar aplicaciones de software como juegos y navegadores web, y utiliza ese entendimiento para crear nuevos programas o mejorar los existentes. Véase también Computólogo Matemáticas Ciencias de la información Ingeniería en computación Anexo:Informáticos teóricos Programación Teoría de la computación Teoría de la complejidad computacional Problema de la cena de los filósofos Problemas no resueltos de las Ciencias de la Computación Anexo:Informáticos teóricos Mujeres en informática Premio Turing Ciencia web Referencias Bibliografía Parnas, D. L. (1998). "Software engineering programmes are not computer science programmes". Annals of Software Engineering 6: 19–37. doi:10.1023/A:1018949113292. Enlaces externos Scholarly Societies in Computer Science Best Papers Awards in Computer Science since 1996 Photographs of computer scientists by Bertrand Meyer Fuentes bibliográficas y motores de búsqueda académicos enfocados a ciencias de la computación CiteSeerx (artículo): motor de búsqueda, biblioteca digital y repositorio de artículos científicos y académicos enfocados a las ciencias de la computación y de la información. DBLP Computer Science Bibliography (artículo): bibliografía sobre ciencias de la computación alojada en Universität Trier, en Alemania. Comunicaciones de la ACM Colección de Ciencias de la Computación Bibliografías (artículo) Organizaciones Profesionales Association for Computing Machinery IEEE Computer Society Informatics Europe Computer Science - Stack Exchange comunidad de preguntas y respuestas sobre ciencias de la computación] ¿Qué son las ciencias de la computación? Ingeniería eléctrica Ingeniería electrónica Ciencias de la computación Ingeniería de la computación Informática
342_0
Ciencia
La ciencia (del latín scientĭa, 'conocimiento') es un conjunto de conocimientos sistemáticos comprobables que estudian, explican y predicen los fenómenos sociales, artificiales y naturales. El conocimiento científico se obtiene de manera metodológica mediante observación y experimentación en campos de estudio específicos. Dicho conocimiento se organiza y se clasifica sobre la base de principios explicativos, ya sean de forma teórica o práctica. A partir del razonamiento lógico y el análisis objetivo de la evidencia científica se formulan preguntas de investigación e hipótesis, se deducen principios y leyes, y se construyen modelos, teorías y sistemas de conocimientos por medio del método científico. La ciencia considera y tiene como fundamento la observación experimental. Este tipo de observación se organiza por medio de métodos, modelos y teorías con el fin de generar nuevo conocimiento. Para ello se establecen previamente unos criterios de verdad y un método de investigación. La aplicación de esos métodos y conocimientos conduce a la generación de nuevos conocimientos en forma de predicciones concretas, cuantitativas y comprobables referidas a observaciones pasadas, presentes y futuras. Con frecuencia esas predicciones se pueden formular mediante razonamientos y estructurar como reglas o leyes generales, que dan cuenta del comportamiento de un sistema y predicen cómo actuará dicho sistema en determinadas circunstancias. Desde la revolución científica, el conocimiento científico ha aumentado tanto que los científicos se han vuelto especialistas y sus publicaciones se han vuelto muy difíciles de leer para los no especialistas. Esto ha dado lugar a diversos esfuerzos de divulgación científica, tanto para acercar la ciencia al gran público, como para facilitar la compresión y colaboración entre científicos de distintos campos. Historia La historia de la ciencia abarca el desarrollo de la ciencia desde la antigüedad hasta el presente. La ciencia es un conocimiento empírico, teórico y de procedimiento sobre el universo, producido por científicos que formulan explicaciones y predicciones comprobables basadas en sus observaciones. Hay tres ramas principales de la ciencia: natural, social y formal. Las primeras raíces de la ciencia se remontan al Antiguo Egipto y Mesopotamia alrededor de 3000 a 1200 A.C. Sus contribuciones a las matemáticas, la astronomía y la medicina entraron y dieron forma a la filosofía natural griega de la antigüedad clásica, mediante la cual se hicieron intentos formales para proporcionar explicaciones de eventos en el mundo físico basadas en causas naturales. Después de la caída del Imperio romano occidental, el conocimiento de las concepciones griegas del mundo se deterioró en Europa occidental de habla latina durante los primeros siglos (400 a 1000 EC) de la Edad Media, pero continuó prosperando en el Imperio Romano Oriental (o Bizantino) de habla griega. Con la ayuda de traducciones de textos griegos, la cosmovisión helenística se conservó y se absorbió en el mundo musulmán de habla árabe durante la Edad de Oro islámica. La recuperación y asimilación de obras griegas y las investigaciones islámicas en Europa occidental desde el al revivieron el aprendizaje de la filosofía natural en Occidente. La filosofía natural se transformó durante la Revolución Científica en la Europa de los siglos al , a medida que nuevas ideas y descubrimientos se apartaron de las concepciones y tradiciones griegas anteriores. La Nueva Ciencia que surgió era más mecanicista en su cosmovisión, más integrada con las matemáticas y más confiable y abierta ya que su conocimiento se basaba en un método científico recién definido. Pronto siguieron más "revoluciones" en los siglos siguientes. La revolución químicadel por ejemplo, introdujo nuevos métodos cuantitativos y medidas para la química. En el se enfocaron nuevas perspectivas con respecto a la conservación de la energía, la edad de la Tierra y la evolución. Y en el nuevos descubrimientos en genética y física sentaron las bases para nuevas subdisciplinas como la biología molecular y la física de partículas. Además, las preocupaciones industriales y militares, así como la creciente complejidad de los nuevos esfuerzos de investigación, pronto marcaron el comienzo de la era de la " gran ciencia ", particularmente después de la Segunda Guerra Mundial. Culturas tempranas Las primeras raíces de la ciencia se remontan al Antiguo Egipto y a la Mesopotamia en torno a los años 3000 a 1200 a.C. Aunque las palabras y los conceptos de "ciencia" y "naturaleza" no formaban parte del paisaje conceptual de la época, los antiguos egipcios y mesopotámicos hicieron aportaciones que más tarde encontrarían un lugar en la ciencia griega y medieval: las matemáticas, la astronomía y la medicina. A partir de alrededor del año 3000 a.C., los antiguos egipcios desarrollaron un sistema de numeración de carácter decimal y orientaron sus conocimientos de geometría a la resolución de problemas prácticos, como los de los topógrafos y constructores. Incluso desarrollaron un calendario oficial que contenía doce meses, de treinta días cada uno, y cinco días al final del año. Los antiguos pueblos de Mesopotamia utilizaban los conocimientos sobre las propiedades de diversos productos químicos naturales para la fabricación de cerámica, loza, vidrio, jabón, metales, yeso de cal e impermeabilización; también estudiaban la fisiología animal, la anatomía y el comportamiento con fines divinatorios y realizaban amplios registros de los movimientos de los objetos astronómicos para su estudio de la astrología. Los mesopotámicos tenían intenso interés por la medicina y las primeras prescripciones médicas aparecen en sumeria durante la Tercera Dinastía de Ur ( 2112 a.C. - 2004 a.C.). No obstante, los mesopotámicos parecen haber tenido poco interés en recopilar información sobre el mundo natural por el mero hecho de recopilar información y principalmente solo estudiaron temas científicos que tenían aplicaciones prácticas obvias o relevancia inmediata para su sistema religioso. Antigüedad clásica En la antigüedad clásica, no existe un verdadero análogo antiguo de un científico moderno. En su lugar, individuos bien educados, generalmente de clase alta, y casi universalmente varones, realizaban diversas investigaciones sobre la naturaleza siempre que podían disponer de tiempo. Antes de la invención o descubrimiento del concepto de "naturaleza" (griego antiguo physis) por parte de los filósofos presocráticos, las mismas palabras solían utilizarse para describir la forma natural en que crece una planta, y la "manera" en que, por ejemplo, una tribu adora a un dios determinado. Por esta razón, se afirma que estos hombres fueron los primeros filósofos en sentido estricto, y también los primeros en distinguir claramente "naturaleza" y "convención" La filosofía natural, precursora de la ciencia natural, se distinguía así como el conocimiento de la naturaleza y de las cosas que son verdaderas para toda comunidad, y el nombre de la búsqueda especializada de tal conocimiento era filosofía, el reino de los primeros filósofos-físicos. Eran principalmente especuladores o teóricos, particularmente interesados en la astronomía. En cambio, tratar de utilizar el conocimiento de la naturaleza para imitarla (artificio o tecnología, griego technē) era visto por los científicos clásicos como un interés más apropiado para los artesanos de clase social inferior. Los primeros filósofos griegos de la Escuela Milesiana, fundada por Tales de Mileto y continuada posteriormente por sus sucesores Anaximandro y Anaximenes, fueron los primeros en intentar explicar la fenómenos naturales sin apoyarse en lo sobrenatural. El Pitagóricos desarrolló una filosofía de números complejos y contribuyó significativamente al desarrollo de la ciencia matemática. El teoría de los átomos fue desarrollado por el filósofo griego Leucipo y su alumno Demócrito. El médico griego Hipócrates estableció la tradición de la ciencia médica sistemática y es conocido como "El padre de la medicina" Un punto de inflexión en la historia de la ciencia filosófica primitiva fue el ejemplo de Sócrates de aplicar la filosofía al estudio de los asuntos humanos, incluyendo la naturaleza humana, la naturaleza de las comunidades políticas y el propio conocimiento humano. El método socrático, tal y como se documenta en los diálogos de Platón, es un método dialéctico de eliminación de hipótesis: se encuentran mejores hipótesis identificando y eliminando constantemente las que conducen a contradicciones. Se trata de una reacción al énfasis de los sofistas en la retórica. El método socrático busca verdades generales, comúnmente sostenidas, que dan forma a las creencias y las escudriña para determinar su consistencia con otras creencias. Sócrates criticó el tipo de estudio más antiguo de la física por ser demasiado puramente especulativo y carente de autocrítica. Sócrates fue más tarde, en palabras de su Apología, acusado de corromper a la juventud de Atenas porque "no creía en los dioses en los que cree el Estado, sino en otros nuevos seres espirituales". Sócrates refutó estas afirmaciones, pero fue condenado a muerte. Aristóteles creó posteriormente un programa sistemático de filosofía teleológica: El movimiento y el cambio se describen como la actualización de los potenciales que ya están en las cosas, según el tipo de cosas que sean. En su física, el Sol gira alrededor de la Tierra, y muchas cosas tienen como parte de su naturaleza que son para los humanos. Cada cosa tiene una causa formal, una causa final, y un papel en un orden cósmico con un impulsor inmóvil. Los socráticos también insistieron en que la filosofía debería utilizarse para considerar la cuestión práctica de la mejor manera de vivir para un ser humano (un estudio que Aristóteles dividió en ética y filosofía política). Aristóteles sostenía que el hombre conoce una cosa científicamente "cuando posee una convicción a la que ha llegado de una manera determinada, y cuando los primeros principios sobre los que descansa esa convicción le son conocidos con certeza". El astrónomo griego Aristarco de Samos (310-230 a.C.) fue el primero en proponer un modelo heliocéntrico del universo, con el Sol en el centro y todos los planetas orbitando alrededor de él. El modelo de Aristarco fue ampliamente rechazado porque se creía que violaba las leyes de la física. El inventor y matemático Archimedes de Siracusa hizo importantes contribuciones a los inicios del cálculo y a veces se le ha atribuido como su inventor, aunque su protocálculo carecía de varias características definitorias.Plinio el Viejo fue un escritor y polímata romano, que escribió la enciclopedia seminal Historia Natural, que se ocupan de la historia, la geografía, la medicina, la astronomía, las ciencias de la tierra, la botánica y la zoología. Otros científicos o protocientíficos de la Antigüedad fueron Teofrasto, Euclides, Herófilo, Hiparco, Ptolomeo y Galeno. Ramas Unidad Límites Investigación científica Método Leyes Teorías Modelos Consenso Progreso Filosofía de la ciencia Comunidad científica Científicos Mujeres en ciencia Sociedad científica Influencia en la sociedad Divulgación científica Conciencia pública de la ciencia Estudios de ciencia, tecnología y sociedad Véase también Anticiencia Ciencia ficción Cientificismo Evidencia empírica Financiamiento de la ciencia Materialismo Metaciencia Política científica Politización de la ciencia Positivismo Protociencia Pseudociencia Tecnociencia Tecnología Referencias Bibliografía Enlaces externos Scientific American Investigación y Ciencia - Edición española de Scientific American Conocimiento
344_0
Compresión de datos
En ciencias de la computación, la compresión de datos es la reducción del volumen de datos tratables para representar una determinada información empleando una menor cantidad de espacio. Al acto de compresión de datos se denomina «compresión», y al contrario «descompresión». El espacio que ocupa una información codificada (datos, señal digital, etc.) sin compresión es el producto entre la frecuencia de muestreo y la resolución. Por tanto, cuantos más bits se empleen mayor será el tamaño del archivo. No obstante, la resolución viene impuesta por el sistema digital con que se trabaja y no se puede alterar el número de bits a voluntad; por ello, se utiliza la compresión, para transmitir la misma cantidad de información que ocuparía una gran resolución en un número inferior de bits. La compresión es un caso particular de la codificación, cuya característica principal es que el código resultante tiene menor tamaño que el original. La compresión de datos se basa fundamentalmente en buscar repeticiones en series de datos para después almacenar solo el dato junto al número de veces que se repite. Así, por ejemplo, si en un fichero aparece una secuencia como "AAAAAA", ocupando 6 bytes se podría almacenar simplemente "6A" que ocupa solo 2 bytes, en algoritmo RLE. En realidad, el proceso es mucho más complejo, ya que raramente se consigue encontrar patrones de repetición tan exactos (salvo en algunas imágenes). Se utilizan algoritmos de compresión: Por un lado, algunos buscan series largas que luego codifican en formas más breves. Por otro lado, algunos algoritmos, como el algoritmo de Huffman, examinan los caracteres más repetidos para luego codificar de forma más corta los que más se repiten. Otros, como el LZW, construyen un diccionario con los patrones encontrados, a los cuales se hace referencia de manera posterior. La codificación de bytes pares es otro sencillo algoritmo de compresión muy fácil de entender. A la hora de hablar de compresión hay que tener presentes dos conceptos: Redundancia: Datos que son repetitivos o previsibles. Entropía: La información nueva o esencial que se define como la diferencia entre la cantidad total de datos de un mensaje y su redundancia. La información que transmiten los datos puede ser de tres tipos: Redundante: información repetitiva o predecible. Irrelevante: información que no podemos apreciar y cuya eliminación por tanto no afecta al contenido del mensaje. Por ejemplo, si las frecuencias que es capaz de captar el oído humano están entre 16/20 Hz y 16 000/20 000 Hz, serían irrelevantes aquellas frecuencias que estuvieran por debajo o por encima de estos valores. Básica: la relevante. La que no es ni redundante ni irrelevante. La que debe ser transmitida para que se pueda reconstruir la señal. Teniendo en cuenta estos tres tipos de información, se establecen tres tipologías de compresión de la información: Sin pérdidas reales: es decir, transmitiendo toda la entropía del mensaje (toda la información básica e irrelevante, pero eliminando la redundante). Subjetivamente sin pérdidas: es decir, además de eliminar la información redundante se elimina también la irrelevante. Subjetivamente con pérdidas: se elimina cierta cantidad de información básica, por lo que el mensaje se reconstruirá con errores perceptibles pero tolerables (por ejemplo: la videoconferencia). Diferencias entre compresión con pérdida y sin ella El objetivo de la compresión es siempre reducir el tamaño de la información, intentando que esta reducción de tamaño no afecte al contenido. No obstante, la reducción de datos puede afectar o no a la calidad de la información: Compresión sin pérdida: los datos antes y después de comprimirlos son exactos en la compresión sin pérdida. En el caso de la compresión sin pérdida una mayor compresión solo implica más tiempo de proceso. La tasa de bits siempre es variable en la compresión sin pérdida. Se utiliza principalmente en la compresión de texto. Un algoritmo de compresión con pérdida puede eliminar datos para disminuir aún más el tamaño, con lo que reduce la calidad. En la compresión con pérdida, la tasa de bits puede ser constante o variable. Una vez realizada la compresión, no se puede obtener la señal original, aunque sí una aproximación cuya semejanza con la original dependerá del tipo de compresión. Este tipo de compresión se da principalmente en imágenes, videos y sonidos. Además de estas funciones la compresión permite que los algoritmos usados para reducir las cadenas del código desechen información redundante de la imagen. Uno de los formatos que permite compensar esta perdida es el JPG, que emplea técnicas que suavizan los bordes y áreas que tienen un color similar permitiendo que la falta de información sea invisible a simple vista. Este método permite un alto grado de compresión con pérdidas en la imagen que, muchas veces, solo es visible mediante el zoom. Usos Imagen La codificación de entropía se originó en la década de 1940 con la introducción de la codificación Shannon-Fano, la base de la codificación Huffman que se desarrolló en 1950. La codificación por transformada se remonta a finales de la década de 1960, con la introducción de la transformada rápida de Fourier (FFT) en 1968 y la transformada Hadamard en 1969. Una importante técnica de compresión de imágenes es la transformada de coseno discreta (DCT), una técnica desarrollada a principios de la década de 1970. La DCT es la base del JPEG, un formato de compresión con pérdidas que fue introducido por el Joint Photographic Experts Group (JPEG) en 1992. JPEG reduce en gran medida la cantidad de datos necesarios para representar una imagen a costa de una reducción relativamente pequeña de la calidad de la misma y se ha convertido en el formato de archivo de imagen más utilizado. Su algoritmo de compresión altamente eficiente basado en la DCT fue en gran parte responsable de la amplia proliferación de imágenes digitales y fotos digitales. Lempel-Ziv-Welch (LZW) es un algoritmo de compresión sin pérdidas desarrollado en 1984. Se utiliza en el formato GIF, introducido en 1987. DEFLATE, un algoritmo de compresión sin pérdidas especificado en 1996, se utiliza en el formato Portable Network Graphics (PNG). La compresión wavelet, el uso de wavelets en la compresión de imágenes, comenzó tras el desarrollo de la codificación DCT. El estándar JPEG 2000 se introdujo en el año 2000. A diferencia del algoritmo DCT utilizado por el formato JPEG original, JPEG 2000 utiliza en su lugar algoritmos de transformada de ondícula discreta (DWT). }} La tecnología JPEG 2000, que incluye la extensión Motion JPEG 2000, fue seleccionada como el estándar de codificación de vídeo para el cine digital en 2004. Audio La compresión de datos de audio, que no debe confundirse con la compresión de rango dinámico, tiene el potencial de reducir el ancho de banda y los requisitos de almacenamiento de los datos de audio. [Los algoritmos de compresión de audio se implementan en software como códecs de audio. Tanto en la compresión con pérdidas como en la compresión sin pérdidas, se reduce la redundancia de la información, utilizando métodos como la codificación, la cuantización, la transformada de coseno discreta y la predicción lineal para reducir la cantidad de información utilizada para representar los datos sin comprimir. Los algoritmos de compresión de audio con pérdidas proporcionan una mayor compresión y se utilizan en numerosas aplicaciones de audio, como Vorbis y MP3. Estos algoritmos se basan casi todos en la psicoacústica para eliminar o reducir la fidelidad de los sonidos menos audibles, reduciendo así el espacio necesario para almacenarlos o transmitirlos. La compensación aceptable entre la pérdida de calidad de audio y el tamaño de transmisión o almacenamiento depende de la aplicación. Por ejemplo, un disco compacto (CD) de 640 MB contiene aproximadamente una hora de música de alta fidelidad sin comprimir, menos de 2 horas de música comprimida sin pérdidas o 7 horas de música comprimida en el formato MP3 a una tasa de bits media. Una grabadora de sonido digital puede almacenar normalmente unas 200 horas de habla claramente inteligible en 640 MB. La compresión de audio sin pérdidas produce una representación de los datos digitales que puede descodificarse en un duplicado digital exacto del original. Los ratios de compresión se sitúan en torno al 50-60% del tamaño original, que es similar a los de la compresión genérica de datos sin pérdidas. Los códecs sin pérdidas utilizan el ajuste de curvas o la predicción lineal como base para estimar la señal. Los parámetros que describen la estimación y la diferencia entre la estimación y la señal real se codifican por separado. Existen varios formatos de compresión de audio sin pérdidas. Véase lista de códecs sin pérdidas para obtener una lista. Algunos formatos están asociados a un sistema distinto, como Direct Stream Transfer, utilizado en Super Audio CD y Meridian Lossless Packing, utilizado en DVD-Audio, Dolby TrueHD, Blu-ray y HD DVD. Algunos formatos de archivo de audio presentan una combinación de un formato con pérdidas y una corrección sin pérdidas; esto permite eliminar la corrección para obtener fácilmente un archivo con pérdidas. Estos formatos incluyen MPEG-4 SLS (Scalable to Lossless), WavPack y OptimFROG DualStream. Cuando se van a procesar archivos de audio, ya sea por compresión posterior o para edición, es deseable trabajar a partir de un original inalterado (sin comprimir o comprimido sin pérdidas). El procesamiento de un archivo comprimido sin pérdidas para algún fin suele producir un resultado final inferior a la creación del mismo archivo comprimido a partir de un original sin comprimir. Además de para la edición o la mezcla de sonido, la compresión de audio sin pérdidas se utiliza a menudo para el almacenamiento de archivos, o como copias maestras. Compresión de audio con pérdidas La compresión de audio con pérdidas se utiliza en una amplia gama de aplicaciones. Además de las aplicaciones independientes de reproducción de archivos en reproductores MP3 u ordenadores, los flujos de audio comprimidos digitalmente se utilizan en la mayoría de los DVD de vídeo, la televisión digital, los medios de transmisión en Internet, la radio por satélite y por cable, y cada vez más en las emisiones de radio terrestre. La compresión con pérdidas suele lograr una compresión mucho mayor que la compresión sin pérdidas, al descartar los datos menos críticos basándose en optimizaciones psicoacústicas. La psicoacústica reconoce que no todos los datos de un flujo de audio pueden ser percibidos por el sistema auditivo humano. La mayor parte de la compresión con pérdidas reduce la redundancia identificando primero los sonidos perceptualmente irrelevantes, es decir, los sonidos que son muy difíciles de oír. Ejemplos típicos son las frecuencias altas o los sonidos que se producen al mismo tiempo que los sonidos más fuertes. Esos sonidos irrelevantes se codifican con menor precisión o no se codifican en absoluto. Debido a la naturaleza de los algoritmos con pérdidas, la calidad del audio sufre una pérdida de generación digital cuando se descomprime y recomprime un archivo. Esto hace que la compresión con pérdidas sea inadecuada para almacenar los resultados intermedios en aplicaciones profesionales de ingeniería de audio, como la edición de sonido y la grabación multipista. Sin embargo, los formatos con pérdidas, como el MP3, son muy populares entre los usuarios finales, ya que el tamaño del archivo se reduce al 5-20% del tamaño original y un megabyte puede almacenar aproximadamente un minuto de música con la calidad adecuada. Métodos de codificación Para determinar qué información de una señal de audio es irrelevante desde el punto de vista perceptivo, la mayoría de los algoritmos de compresión con pérdidas utilizan transformaciones como la transformada de coseno discreta (MDCT) para convertir las formas de onda muestreadas en el dominio del tiempo en un dominio de transformación, normalmente el dominio de la frecuencia. Una vez transformadas, las frecuencias de los componentes pueden priorizarse según su audibilidad. La audibilidad de los componentes espectrales se evalúa utilizando el umbral absoluto de audición y los principios de enmascaramiento simultáneo-el fenómeno en el que una señal es enmascarada por otra señal separada por la frecuencia-y, en algunos casos, enmascaramiento temporal-en el que una señal es enmascarada por otra señal separada por el tiempo. También se pueden utilizar los contornos de igual sonoridad para ponderar la importancia perceptiva de los componentes. Los modelos de la combinación oído-cerebro humano que incorporan estos efectos suelen denominarse modelo psicoacústicos. Otros tipos de compresores con pérdidas, como la codificación predictiva lineal utilizada con el habla, son codificadores basados en la fuente. La LPC utiliza un modelo del tracto vocal humano para analizar los sonidos del habla e inferir los parámetros utilizados por el modelo para producirlos momento a momento. Estos parámetros cambiantes se transmiten o almacenan y se utilizan para impulsar otro modelo en el descodificador que reproduce el sonido. Los formatos con pérdidas se utilizan a menudo para la distribución de audio en streaming o la comunicación interactiva (como en las redes de telefonía móvil). En estas aplicaciones, los datos deben descomprimirse a medida que fluyen, en lugar de hacerlo después de que se haya transmitido todo el flujo de datos. No todos los códecs de audio pueden utilizarse para aplicaciones de streaming. La Latencia es introducida por los métodos utilizados para codificar y decodificar los datos. Algunos códecs analizan un segmento más largo, llamado trama, de los datos para optimizar la eficiencia, y luego lo codifican de manera que se requiera un segmento más grande de datos a la vez para decodificar. La latencia inherente al algoritmo de codificación puede ser crítica; por ejemplo, cuando hay una transmisión bidireccional de datos, como en una conversación telefónica, los retrasos significativos pueden degradar seriamente la calidad percibida. A diferencia de la velocidad de compresión, que es proporcional al número de operaciones que requiere el algoritmo, aquí la latencia se refiere al número de muestras que hay que analizar antes de procesar un bloque de audio. En el caso mínimo, la latencia es de cero muestras (por ejemplo, si el codificador/decodificador simplemente reduce el número de bits utilizados para cuantificar la señal). Los algoritmos del dominio del tiempo, como el LPC, también suelen tener latencias bajas, de ahí su popularidad en la codificación del habla para la telefonía. Sin embargo, en algoritmos como el MP3, hay que analizar un gran número de muestras para implementar un modelo psicoacústico en el dominio de la frecuencia, y la latencia es del orden de 23 ms. Codificación del habla La codificación del habla es una categoría importante de la compresión de datos de audio. Los modelos perceptivos utilizados para estimar qué aspectos del habla puede escuchar el oído humano suelen ser algo diferentes de los utilizados para la música. El rango de frecuencias necesario para transmitir los sonidos de una voz humana es normalmente mucho más estrecho que el necesario para la música, y el sonido es normalmente menos complejo. Por ello, la voz puede codificarse con alta calidad utilizando una tasa de bits relativamente baja. Esto se consigue, en general, mediante una combinación de dos enfoques: Codificar solo los sonidos que podría emitir una sola voz humana. Desechar la mayor parte de los datos de la señal, conservando solo lo suficiente para reconstruir una voz "inteligible" en lugar de toda la gama de frecuencias del oído humano. Los primeros algoritmos utilizados en la codificación del habla (y en la compresión de datos de audio en general) fueron el algoritmo A-law y el algoritmo μ-law. Historia Las primeras investigaciones sobre audio se realizaron en los Laboratorios Bell. Allí, en 1950, C. Chapin Cutler presentó la patente de la modulación diferencial por código de impulsos (DPCM). En 1973, P. Cummiskey, Nikil S. Jayant y James L. Flanagan introdujeron la DPCM adaptativa (ADPCM). La codificación perceptiva se utilizó por primera vez para la compresión de la codificación del habla, con la codificación predictiva lineal (LPC). Los conceptos iniciales de LPC se remontan a los trabajos de Fumitada Itakura (Universidad de Nagoya) y Shuzo Saito (Nippon Telegraph and Telephone) en 1966. Durante la década de 1970, Bishnu S. Atal y Manfred R. Schroeder en Bell Labs desarrollaron una forma de LPC llamada codificación predictiva adaptativa (APC), un algoritmo de codificación perceptiva que explotaba las propiedades de enmascaramiento del oído humano, seguido a principios de los años ochenta con el algoritmo de predicción lineal excitada por código (CELP), que logró una relación de compresión significativa para su época. La codificación perceptual es utilizada por los formatos modernos de compresión de audio como MP3 y AAC. La transformada de coseno discreta (DCT), desarrollada por Nasir Ahmed, T. Natarajan y K. R. Rao en 1974, proporcionó la base para la transformada discreta del coseno modificada (MDCT) utilizada por los formatos modernos de compresión de audio como el MP3, Dolby Digital, y AAC. El MDCT fue propuesto por J. P. Princen, A. W. Johnson y A. B. Bradley en 1987, tras un trabajo anterior de Princen y Bradley en 1986. El primer sistema comercial de automatización de emisiones de audio del mundo fue desarrollado por Oscar Bonello, un profesor de ingeniería de la Universidad de Buenos Aires. En 1983, utilizando el principio psicoacústico del enmascaramiento de las bandas críticas publicado por primera vez en 1967, comenzó a desarrollar una aplicación práctica basada en el recién desarrollado ordenador IBM PC, y el sistema de automatización de la radiodifusión fue lanzado en 1987 bajo el nombre de Audicom. Veinte años después, casi todas las emisoras de radio del mundo utilizaban una tecnología similar fabricada por varias empresas. En febrero de 1988 se publicó un compendio bibliográfico sobre una gran variedad de sistemas de codificación de audio en el Journal on Selected Areas in Communications (JSAC) del IEEE. Aunque había algunos artículos de antes, esta colección documentaba toda una variedad de codificadores de audio acabados y en funcionamiento, casi todos ellos utilizando técnicas perceptivas y algún tipo de análisis de frecuencia y codificación sin ruido de fondo. Vídeo El vídeo sin comprimir requiere una tasa de datos muy alta. Aunque los códecs mediante compresión de vídeo sin pérdidas funcionan con un factor de compresión de 5 a 12, un vídeo típico de compresión con pérdidas H.264 tiene un factor de compresión de entre 20 y 200. Las dos técnicas clave de compresión de vídeo utilizadas en los estándares de codificación de vídeo son la transformada de coseno discreta (DCT) y la compensación de movimiento (MC). La mayoría de los estándares de codificación de vídeo, como los formatos H.26x y MPEG, suelen utilizar la codificación de vídeo DCT con compensación de movimiento (compensación de movimiento en bloque). La mayoría de los códecs de vídeo se utilizan junto con las técnicas de compresión de audio para almacenar los flujos de datos separados pero complementarios como un paquete combinado utilizando los llamados formato contenedors. Teoría de la codificación Los datos de vídeo pueden representarse como una serie de fotogramas de imágenes fijas. Estos datos suelen contener abundantes cantidades de redundancia espacial y temporal. Los algoritmos de compresión de vídeo intentan reducir la redundancia y almacenar la información de forma más compacta. La mayoría de los formatos de compresión de vídeo y códecs explotan la redundancia espacial y temporal (por ejemplo, mediante la codificación de diferencias con compensación de movimiento). Las similitudes pueden codificarse almacenando solo las diferencias entre, por ejemplo, fotogramas temporalmente adyacentes (codificación intercuadro) o píxeles espacialmente adyacentes (codificación intracuadro). La compresión Inter-frame (una codificación delta temporal) (re)utiliza los datos de uno o más fotogramas anteriores o posteriores de una secuencia para describir el fotograma actual. La codificación intracuadro, por el contrario, utiliza solo datos del cuadro actual, siendo en realidad una compresión de imagen. Los formatos de codificación de vídeo entre fotogramas utilizados en las videocámaras y en la edición de vídeo emplean una compresión más simple que utiliza solo la predicción intra-frame. Esto simplifica el software de edición de vídeo, ya que evita que un fotograma comprimido se refiera a datos que el editor ha eliminado. Normalmente, la compresión de vídeo emplea además técnicas de compresión con pérdidas como la cuantización que reducen aspectos de los datos de origen que son (más o menos) irrelevantes para la percepción visual humana explotando características perceptivas de la visión humana. Por ejemplo, las pequeñas diferencias de color son más difíciles de percibir que los cambios de brillo. Los algoritmos de compresión pueden promediar un color a través de estas áreas similares de una manera similar a los utilizados en la compresión de imágenes JPEG. Como en toda compresión con pérdidas, hay un compromiso entre la calidad de vídeo y la tasa de bits, el coste de procesar la compresión y la descompresión, y los requisitos del sistema. Los vídeos muy comprimidos pueden presentar artefactos de compresión visibles o molestos. Otros métodos distintos de los formatos de transformación basados en la DCT, como la compresión fractal, la búsqueda de coincidencias y el uso de una transformada wavelet discreta (DWT), han sido objeto de algunas investigaciones, pero no suelen utilizarse en productos prácticos. La compresión wavelet se utiliza en codificadores de imágenes fijas y de vídeo sin compensación de movimiento. El interés por la compresión fractal parece estar disminuyendo, debido a los recientes análisis teóricos que muestran una falta de eficacia comparativa de tales métodos. Codificación entre fotogramas En la codificación entre fotogramas, se comparan los fotogramas individuales de una secuencia de vídeo de un fotograma a otro, y el códec de compresión de vídeo registra las diferencias respecto al fotograma de referencia. Si el fotograma contiene áreas en las que no se ha movido nada, el sistema puede simplemente emitir un breve comando que copie esa parte del fotograma anterior en el siguiente. Si hay secciones del fotograma que se mueven de forma sencilla, el compresor puede emitir un comando (ligeramente más largo) que indique al descompresor que desplace, rote, aclare u oscurezca la copia. Este comando más largo sigue siendo mucho más corto que los datos generados por la compresión intracuadro. Normalmente, el codificador también transmite una señal de residuo que describe las restantes diferencias más sutiles con respecto a las imágenes de referencia. Utilizando la codificación de entropía, estas señales de residuo tienen una representación más compacta que la señal completa. En las zonas de vídeo con más movimiento, la compresión debe codificar más datos para mantener el ritmo del mayor número de píxeles que cambian. Normalmente, durante las explosiones, las llamas, las bandadas de animales y en algunas tomas panorámicas, el detalle de alta frecuencia provoca una disminución de la calidad o un aumento de la tasa de bits variable. Formatos de transformación híbridos basados en bloques En la actualidad, casi todos los métodos de compresión de vídeo más utilizados (por ejemplo, los que figuran en las normas aprobadas por la UIT-T o la ISO) comparten la misma arquitectura básica que se remonta a la norma H.261, estandarizada en 1988 por la UIT-T. Se basan principalmente en la DCT, aplicada a bloques rectangulares de píxeles vecinos, y en la predicción temporal mediante vectores de movimiento, así como, actualmente, en una etapa de filtrado en bucle. En la etapa de predicción, se aplican varias técnicas de deduplicación y de codificación de diferencias que ayudan a decorrelacionar los datos y a describir los nuevos datos basándose en los ya transmitidos. A continuación, los bloques rectangulares de datos de píxeles restantes se transforman en el dominio de la frecuencia. En la principal etapa de procesamiento con pérdidas, los datos del dominio de la frecuencia se cuantifican para reducir la información que es irrelevante para la percepción visual humana. En la última etapa, la redundancia estadística se elimina en gran medida mediante un codificador de entropía que suele aplicar alguna forma de codificación aritmética. En una etapa adicional de filtrado en bucle se pueden aplicar varios filtros a la señal de imagen reconstruida. Al computar estos filtros también dentro del bucle de codificación pueden ayudar a la compresión porque pueden aplicarse al material de referencia antes de que se utilice en el proceso de predicción y pueden guiarse utilizando la señal original. El ejemplo más popular son los filtros de desbloqueo que eliminan los artefactos de bloqueo de las discontinuidades de cuantificación en los límites de los bloques de transformación. Historia En 1967, A.H. Robinson y C. Cherry propusieron un esquema de compresión de ancho de banda de codificación de longitud de carrera para la transmisión de señales de televisión analógicas. La transformada de coseno discreta (DCT), que es fundamental para la compresión de vídeo moderna, fue introducida por Nasir Ahmed, T. Natarajan y K. R. Rao en 1974. H.261, que debutó en 1988, introdujo comercialmente la arquitectura básica prevalente de la tecnología de compresión de vídeo. Fue el primer formato de codificación de vídeo basado en la compresión DCT. H.261 fue desarrollado por varias empresas, entre ellas Hitachi, PictureTel, NTT, BT y Toshiba. Los estándares de codificación de vídeo más populares utilizados para los códecs han sido los estándares MPEG. MPEG-1 fue desarrollado por el Motion Picture Experts Group (MPEG) en 1991, y fue diseñado para comprimir vídeo de calidad VHS. Fue sucedido en 1994 por MPEG-2/H.262, que fue desarrollado por varias empresas, principalmente Sony, Thomson y Mitsubishi Electric. MPEG-2 se convirtió en el formato de vídeo estándar para DVD y televisión digital SD. En 1999, le siguió MPEG-4/H.263 . También fue desarrollado por varias empresas, principalmente Mitsubishi Electric, Hitachi y Panasonic. H.264/MPEG-4 AVC fue desarrollado en 2003 por varias organizaciones, principalmente Panasonic, Godo Kaisha IP Bridge y LG Electronics. AVC introdujo comercialmente los modernos algoritmos de codificación aritmética binaria adaptable al contexto (CABAC) y codificación de longitud variable adaptable al contexto (CAVLC). AVC es el principal estándar de codificación de vídeo para los discos Blu-ray, y es ampliamente utilizado por los sitios web para compartir vídeos y los servicios de transmisión por Internet como YouTube, Netflix, Vimeo y iTunes Store, el software web como Adobe Flash Player y Microsoft Silverlight, y varias emisiones de HDTV por televisión terrestre y por satélite. Genética Los algoritmos de compresión genómica son la última generación de algoritmos sin pérdidas que comprimen datos (normalmente secuencias de nucleótidos) utilizando tanto algoritmos de compresión convencionales como algoritmos genéticos adaptados al tipo de datos específico. En 2012, un equipo de científicos de la Universidad Johns Hopkins publicó un algoritmo de compresión genética que no utiliza un genoma de referencia para la compresión. HAPZIPPER se adaptó a los datos del HapMap y logra una compresión de más de 20 veces (95% de reducción del tamaño del archivo), proporcionando una compresión de 2 a 4 veces mejor y es menos intensiva desde el punto de vista computacional que las principales utilidades de compresión de uso general. Para ello, Chanda, Elhaik y Bader introdujeron la codificación basada en MAF (MAFE), que reduce la heterogeneidad del conjunto de datos clasificando los SNP por su frecuencia alélica menor, homogeneizando así el conjunto de datos. Otros algoritmos desarrollados en 2009 y 2013 (DNAZip y GenomeZip) tienen ratios de compresión de hasta 1200 veces, lo que permite almacenar 6.000 millones de pares de bases de genomas humanos diploides en 2. 5 megabytes (en relación con un genoma de referencia o promediado entre muchos genomas). Para una referencia en compresores de datos genéticos/genómicos, véase. Hipótesis El trabajo de investigación científica de Boris Weisler se centraba en una línea árida de la matemática: la teoría de grupos algebraicos. El vocablo “grupo” se utiliza para designar al conjunto de simetrías de un objeto y la manera en que estas interactúan. Obviamente, el grupo dependerá de la geometría del objeto en cuestión. Ahora bien, la abstracción matemática permite definir la noción de grupo sin un objeto subyacente, y a partir de su estructura interna reconstruir dicho objeto. La relevancia de este proceso radica en que ha permitido descubrir de manera abstracta nuevas e insospechadas geometrías. Al lidiar directamente con grupos se utilizan métodos algebraicos de gran formalidad. De alguna manera, se trabaja solo con variables e incógnitas pensando siempre en que hay un objeto por detrás, pero sin aferrarse nunca a él. Si mediante estos métodos se logra establecer un resultado, entonces este tendrá consecuencias -a veces insospechadas- sobre estos objetos “nebulosos” y su geometría. Su Gran Teorema, espectacular, puede leerse de la siguiente manera: “todo subgrupo del grupo de matrices de entradas enteras y determinante 1 que es denso en la topología Zarisky es casi denso en la topología de congruencias”. Aunque parece un trabalenguas, lo cierto es que este resultado de 1984 es una verdadera joya de la matemática, y tardó años en ser completamente comprendido y asimilado por la comunidad académica. Del mismo, de difícil comprensión, se deduciría un nuevo diferente concepto de "compresión sin compresión" basado, en principios "matemáticos-semánticos". Un terreno todavía muy poco explorado. Si somos capaces de comprender la información a "comprimir" como un mero lenguaje convencional, que consta de significado pero que se expresa como significante, y somos capaces de traducir estos significantes a números, números susceptibles de operaciones matemáticas, la "compresión" de la información, deja de entenderse como tal pasando a ser, sencillamente, la reducción de un número (que puede ser extraordinariamente grande), una fórmula, o clave numérica resultante de operaciones matemáticas sobre el "objeto-información" a reducir (comprimir, en el lenguaje habitual). El ejemplo al que se recurre como demostración suele ser del siguiente tipo: Traducimos una información, un texto, un libro con 100.000 palabras. Lo convertimos a su equivalente numérico binario, pero, para entender mejor el ejemplo, volvemos a convertirlo a su equivalente decimal. Nos queda entonces, un número enorme, con una determinada terminación, secuencia numérica. Elegimos, de esas originales 100.000 palabras (ahora representadas como números decimales) las últimas 5000 (la elección es convencional, y de acuerdo a las necesidades prefijadas). Tomamos estas 5000 palabras finales del texto-número como "patrón". Y las restamos n veces, hasta llegar a obtener un número menor que el patrón utilizado. Le llamaremos, convencionalmente, "resto". Así, nos quedan también dos claves. Les llamaremos, "claves de reconstrucción de la información inicial". Simplemente, habrá que coger luego ese resto y sumar n veces el patrón elegido, hasta que comprobemos que tal patrón coincide con el final de la información inicial o totalidad. Y de esas dos claves, habremos reconstruido el total de la información. Por supuesto, este es solo un ejemplo modelo muy simplificado. Con la base de los principios aquí explicados, y las herramientas matemáticas e informáticas disponibles se puede avanzar más allá de los límites aparentes. Téngase en cuenta que ni siquiera nos hemos referido a recursos como la recursividad, también aplicable a este método y perfectamente tratable informáticamente. Referencias Véase también Enlaces externos Procesamiento Digital de Señales Acústicas utilizando Wavelets. Lista de manuales de algoritmos de compresión sin pérdida Compresión en Bases de datos (Teradata) Compresión de archivos: formas, tipos y métodos Ingeniería de audio Compresión de datos
345_0
Cadmio
El cadmio es un elemento químico de número atómico 48 situado en el grupo 12 de la tabla periódica de los elementos. Su símbolo es Cd. Es un metal pesado, blando, blanco azulado, relativamente poco abundante. Es uno de los metales más tóxicos. Normalmente se encuentra en minas de zinc y se emplea especialmente en pilas. Historia El cadmio (en latín, cadmia, y en griego kadmeia, que significa "calamina", el nombre vulgar del carbonato de zinc) fue descubierto en Alemania en 1817 por Friedrich Strohmeyer. Lo encontró como impureza de algunas muestras de carbonato de zinc. Strohmeyer observó que esas muestras, en particular, cambiaban de color al calentarlas, lo cual no le ocurría al carbonato de zinc puro. Strohmeyer fue lo suficientemente persistente para continuar la observación consiguiendo aislar el elemento mediante el tueste y posterior reducción del sulfuro. Características El cadmio es un metal pesado, de color blanco azulado, el cual se encuentra en toda la corteza terrestre. Su estado de oxidación es de +2. Puede presentar el estado de oxidación +1, pero es muy inestable. No se encuentra en la naturaleza en estado puro sino que por afinidad química está asociado con metales como el zinc, el plomo y el cobre. Asociado a la contaminación medio ambiental e industrial, es uno de los mayores tóxicos, ya que reúne las cuatro características básicas más peligrosas de un tóxico: Bioacumulación Persistencia en el ambiente Efectos desfavorables para el ser humano y el ambiente Es fácilmente transportable mediante los cursos de agua y el viento Aplicaciones Se emplea en acumuladores eléctricos de níquel-cadmio recargables. En 2009, el 86% del cadmio se utilizaba en baterías y pilas, predominantemente en baterías de níquel-cadmio recargables. Las pilas de níquel-cadmio tienen un potencial celular nominal de 1,2 V. La celda consta de un electrodo positivo de hidróxido de níquel y una placa de electrodos de cadmio que hace de polo negativo, separados por un electrolito alcalino de hidróxido de potasio. La Unión Europea puso un límite al cadmio en la electrónica en 2004 del 0. 01%, con algunas excepciones, y en 2006 redujo el límite de contenido de cadmio al 0. 002%. Otro tipo de batería basada en el cadmio es la batería de plata-cadmio. Es componente de aleaciones de bajo punto de fusión. Se emplea en aleaciones de cojinetes, con bajo coeficiente de fricción y gran resistencia a la fatiga. Se utiliza mucho en electrodeposición: recubrimiento de rectificadores y acumuladores. Utilizado en barras de control del flujo de neutrones en los reactores atómicos. En este uso, actúa como un veneno de neutrones muy eficaz para controlar el flujo de neutrones en la fisión nuclear. Cuando las barras de cadmio se insertan en el núcleo de un reactor nuclear, el cadmio absorbe los neutrones, impidiendo que creen eventos de fisión adicionales, controlando así la cantidad de reactividad. El reactor de agua presurizada diseñado por Westinghouse Electric Company utiliza una aleación compuesta por un 80% de plata, un 15% de indio y un 5% de cadmio. El hidróxido de cadmio se emplea en galvanotecnia y en la fabricación de electrodos negativos de baterías de níquel-cadmio. El óxido de cadmio se usa como catalizador para la hidrogenación y la síntesis de metano. Además, se emplea para fabricación de esmaltes y en sinterización. El cloruro de cadmio se utiliza en galvanotecnia, fotografía y tintorería. El sulfuro de cadmio se utiliza como pigmento amarillo. El sulfoseleniuro de cadmio se utiliza como pigmento anaranjado. El sulfuro de cadmio se utiliza como pigmento rojo. El estearato de cadmio se emplea para mejorar la estabilidad de materiales de PVC frente a la luz y a los agentes atmosféricos. Concentraciones Las concentraciones de cadmio en la naturaleza son las siguientes: Agua: En ríos la concentración de cadmio disuelto es relativamente alta (10 -500 mg/l) encontrándose por lo general unido a materia participada. En zonas oceánicas abiertas la concentración está entre 0,5 y 10 mg/l; estos niveles puede ser superiores en áreas marinas cerradas, especialmente en las desembocaduras de los ríos que están contaminados. Aire: El transporte a los diferentes compartimentos ambientales se realiza a través del aire, donde tiene poca persistencia (días o semanas). Las concentraciones en zonas rurales son de 0,1 mg. por m³ aumentando hasta cinco veces en zonas urbanas e industriales. Suelo: El suelo es el primero en ser objeto de inmisión del cadmio, por la caída de partículas difundidas en el aire por actividades industriales, actividades antropogénicas o por su acumulación después de los incendios. En suelos la concentración media de cadmio es de 0,06 a 0,5 mg. por kg. aumentando hasta cien veces en zonas contaminadas. Hay estudios basados en que con la aplicación de fertilizantes procedentes de rocas fosfatadas aumenta la concentración desde 0,3 a 38 g. por hectárea y año. La persistencia del cadmio en suelos es de hasta trescientos años y el 90 por ciento permanece sin transformarse. Estas concentraciones de cadmio en el suelo dependen en su mayor parte del pH de la tierra, que controla la solubilidad y movilidad del metal. Cadmio en el ambiente Podemos hallar cadmio en la atmósfera, el agua y el suelo. De forma natural grandes cantidades de cadmio son liberadas al ambiente, aproximadamente 25000 toneladas al año, de las cuales gran parte son vertidas a los ríos procedente de la descomposición de las rocas, mientras que una pequeña parte es liberada a la atmósfera a través de los incendios forestales, actividad volcánica, quema de combustibles fósiles y residuos urbanos e industriales. En este apartado detallaremos como llega el cadmio a los diferentes ecosistemas: Actualmente se relaciona la contaminación de este metal con la industria del zinc y del plomo. También se producen emisiones de cadmio, aunque en menor grado, en la combustión de basuras, combustión de carbón, producción de cementos y en la industria del acero Los daños a nivel global del cadmio son poco importantes, en este metal se ha observado que la relación de contaminación es de regional a local. Emisiones atmosféricas La concentración de cadmio, procedente de las fuentes citadas previamente, es elevada alrededor de las minas, zonas industriales y áreas urbanas, disminuyendo a medida que nos alejamos de estas hacia las zonas rurales. Contaminación del agua El cadmio que llega al agua principalmente es de vertidos urbanos e industriales. Esta contaminación depende de la cercanía de las zonas acuáticas a las zonas urbanas. Por otro lado parte del cadmio atmosférico es depositado en la superficie acuática y figura como el 23 % del cadmio contaminante, siendo la vía principal de entrada en agua. Contaminación del suelo La mayor parte del cadmio vertido por el ser humano va a depositarse en el suelo. Al igual que ocurre en el agua la vía principal de deposición es la vía atmosférica, seguida de los vertidos humanos y el uso de fertilizantes. La concentración de cadmio en el suelo sigue aumentando con el tiempo, debido al incremento de los índices de emisión de origen humano, creyéndose que esta concentración se doblará cada 50 – 80 años. Toxicocinética El cadmio produce efectos tóxicos en los organismos vivos, aun en concentraciones muy pequeñas. Es el conjunto de fenómenos que experimenta el cadmio desde su entrada en el organismo hasta su eliminación. Consta de los siguientes procesos: Absorción El cadmio se puede absorber por tres vías diferentes; oral, respiratoria o dérmica. Sin embargo, la exposición dérmica es relativamente insignificante, es la absorción tras la vía inhalatoria y oral las de mayor interés. La alimentación es una de las fuentes importantes de entrada de cadmio en el organismo. Una dieta deficiente en hierro según los resultados experimentales de Flanagan et al. (1978) puede acelerar su velocidad de absorción, así como la falta de otras sustancias como es el calcio o la proteína. Podemos concluir que la fisiología del individuo (edad, reservas de hierro, calcio, zinc, embarazos…) determina la absorción tras la exposición oral. Se ha observado mediante estudios experimentales que la concentración de cadmio está entre el 2-3% en una persona sana y asciende a un 6-8% en personas con deficiencia de hierro. La inhalación representa una importante vía de entrada de este metal, y la absorción de este metal es mayor si el organismo presenta una deficiencia de hierro calcio y zinc. El cadmio y sus sales presentan baja volatilidad y existen en el aire como materia finamente particulada. Cuando son inhaladas, una parte de estas partículas se deposita en el tracto respiratorio y los pulmones, mientras que el resto son exhaladas. El tamaño de partícula determina la absorción por los pulmones; las partículas mayores de 10 µm de diámetro se eliminan fácilmente, mientras que las de 0,1 µm penetran en los alvéolos absorbiéndose y transportándose por el organismo. En el caso del tabaco, las partículas son de pequeño tamaño, teniendo como consecuencia una deposición mayor a nivel alveolar. Distribución Una vez es absorbido por los pulmones o por el tracto intestinal el cadmio es transportado por la sangre a otras partes del cuerpo, concentrándose principalmente en el hígado y el riñón. La acumulación de Cd en riñón e hígado depende de la intensidad, del tiempo de exposición y del estado óptimo de la función de excreción renal La metalotioneína (MT) es el medio de transporte del cadmio en el plasma sanguíneo. Éstas son un grupo de proteínas que unen metales, ricas en residuos de cisteína, cuya síntesis ocurre principalmente en hígado y riñón. El complejo Cadmio - metalotioneína se considera menos tóxico que el Cadmio sin enlazar, por tanto esta proteína tiene efecto detoxificante. La liberación de este complejo a la sangre es lenta, lo que provoca una acumulación del complejo Cd-MT en el hígado. A continuación el cadmio unido a MT se transporta por la sangre hasta el riñón, donde se filtra a través del glomérulo y se reabsorbe en el túbulo proximal, se produce una catálisis del complejo cadmio-MT en los lisosomas, liberándose iones de cadmio que inducen nuevamente la síntesis de MT en la célula renal. Por este motivo el cadmio tiene una media de vida biológica bastante larga. Metabolismo Del metabolismo hay poco que decir ya que el cadmio no sufre ninguna conversión metabólica directa tales como oxidación, reducción o alquilación. Metabólicamente es importante la unión del cadmio a la metalotioneína ya que deja inerte su toxicidad. Excreción El cadmio se excreta de manera escasa y muy lenta, esto explica la larga vida biológica de este elemento. Tras la absorción la principal vía de eliminación de cadmio es a través de la orina, por lo que se considera que el cadmio urinario refleja la carga corporal de cadmio. Toxicidad del cadmio en alimentos El cadmio es uno de los metales tóxicos emitidos al medio ambiente que más tiende a acumularse en los alimentos. La principal fuente de contaminación de cadmio en el ser humano es la ingesta de vegetales contaminados con este metal (Norvell et al. 2000). Una característica considerable del cadmio es su fácil traspaso del suelo a los vegetales, es uno de los metales que mejor se absorben por las plantas, siendo mayormente cereales como el trigo, arroz y, en menor medida el maíz. La retención del cadmio en la superficie vegetal depende de factores como: el tamaño de la partícula, factores climáticos, velocidad de deposición y características de las hojas. El pH es considerado uno de los factores que más repercusión tienen en la relación cadmio – vegetal, una disminución del pH del suelo facilita el traspaso del metal a la planta. El fenómeno de la lluvia ácida es de gran importancia en áreas industrializadas, ya que esta disminuye el pH del suelo, y como consecuencia hace aumentar la absorción por parte de las plantas, es decir, la acumulación. Con relación a la contaminación por agua, los que tienen mayor incidencia tienen son los crustáceos, peces y los moluscos bivalvos (Storelli 2009; Ololade y col. 2011). El agua apta para beber no puede superar valores del orden de 2 µg/L, esto quiere decir que no es una vía considerable de exposición. La tecnología alimentaria también juega un papel importante, ya que los productos pueden ser contaminados en el tratamiento de los alimentos y en la manipulación de estos, sobre todo en el caso de los embalajes. Efectos en la salud Los efectos de la toxicidad por Cd dependen del tipo de exposición, ya sea a través de la inhalación de aire contaminado (particularmente cerca de fundidoras, incineradoras o procedente del humo del cigarro), consumo de alimentos y aguas contaminadas. En fumadores, se ha encontrado que la concentración de Cd en la sangre es de 1-4 µg/l, un valor de cuatro a cinco a veces más alto que en los no fumadores. Es nefrotóxico (L´ Azou et al. 2007), y el daño renal se manifiesta con proteinuria (Nogué et al. 2004) Diarreas, dolor de estómago y vómitos severos Debilitamiento óseo Fallos en la reproducción y posibilidad incluso de infertilidad Daño al sistema nervioso central Daño al sistema inmunológico Desórdenes psicológicos Carcinogénico (Akesso et al.2008) Referencias Bibliografía M.Jiménez Repetto, Manuel. Toxicología avanzada. Madrid: Díaz de santos, 1995. Jiménez Repetto, Manuel; Kuhn Repetto, Guillermo. Toxicología fundamental. 4ª ed. Sevilla: Díaz de Santos,2009 M. Rodríguez-Serrana; N. Martínez-de la Casa; M.C. Romero-Puertas; L.A del Río; L.M Sandalio. Toxicidad del Cadmio en Plantas. Ecosistemas, vol. 17, (2008), p.139-146. A. Ramírez. Toxicología del Cadmio. Anales de la Facultad de Medicina, vol. 3, n.º1,(2002),p.51-64. R. Madeddu. Estudio de la influencia del cadmio sobre el medioambiente y el organismo humano. Granada: Editorial Universidad de Granada, 2005. M. Lara-Delgado; G. Lozano-González, Toxicidad del Cadmio en las Plantas. M. Díaz-Díaz,. Concentración del cadmio en sangre en una población hospitalaria y su relación con factores asociados. Madrid: Editorial Universidad Complutense de Madrid, 2014.
346_0
Carbono
El carbono (del latín, carbo, 'carbón') es un elemento químico con símbolo C, número atómico 6 y masa atómica 12,01. Es un no metal y tetravalente, disponiendo de cuatro electrones y 6 protones para formar enlaces químicos covalentes. Tres isótopos del carbono se producen de forma natural, los estables 12C y 13C y el isótopo radiactivo C, que decae con una vida media de unos 5730 años. El carbono es uno de los pocos elementos conocidos desde la antigüedad, y es el pilar básico de la química orgánica. Está presente en la Tierra en estado de cuerpo simple (carbón y diamantes), de compuestos inorgánicos ( y CaCO3) y de compuestos orgánicos (biomasa, petróleo y gas natural). También se han sintetizado muchas nuevas estructuras basadas en el carbono: carbón activado, negro de humo, fibras, nanotubos, fullerenos y grafeno. El carbono es el 15.º elemento más abundante en la corteza terrestre, y el cuarto elemento más abundante en el universo en masa después del hidrógeno, el helio y el oxígeno. La abundancia del carbono, su diversidad única de compuestos orgánicos y su inusual capacidad para formar polímeros a las temperaturas comúnmente encontradas en la Tierra, permite que este elemento sirva como componente común de toda la vida conocida. Es el segundo elemento más abundante en el cuerpo humano en masa (aproximadamente el 18,5%) después del oxígeno. Los átomos de carbono pueden unirse de diferentes maneras, denominadas alótropos del carbono, reflejo de las condiciones de formación. Los más conocidos que ocurren naturalmente son el grafito, el diamante y el carbono amorfo. Las propiedades físicas del carbono varían ampliamente con la forma alotrópica. Por ejemplo, el grafito es opaco y negro, mientras que el diamante es altamente transparente. El grafito es lo suficientemente blando como para formar una raya en el papel (de ahí su nombre, del verbo griego "γράφειν" que significa 'escribir'), mientras que el diamante es el material natural más duro conocido. El grafito es un buen conductor eléctrico mientras que el diamante tiene una baja conductividad eléctrica. En condiciones normales, el diamante, los nanotubos de carbono y el grafeno tienen las conductividades térmicas más altas de todos los materiales conocidos. Todos los alótropos del carbono son sólidos en condiciones normales, siendo el grafito la forma termodinámicamente estable. Son químicamente resistentes y requieren altas temperaturas para reaccionar incluso con oxígeno. El estado de oxidación más común del carbono en los compuestos inorgánicos es +4, mientras que +2 se encuentra en el monóxido de carbono y en complejos carbonilos de metales de transición. Las mayores fuentes de carbono inorgánico son las calizas, dolomitas y dióxido de carbono, pero cantidades significativas se producen en depósitos orgánicos de carbón, turba, petróleo y clatratos de metano. El carbono forma un gran número de compuestos, más que cualquier otro elemento, con casi diez millones de compuestos descritos hasta la fecha (con 500.000 compuestos nuevos por año), siendo sin embargo ese número solo una fracción del número de compuestos teóricamente posibles bajo condiciones estándar. Por esta razón, a menudo el carbono se ha descrito como el «rey de los elementos». La combustión del carbono en todas sus formas ha sido la base del desarrollo tecnológico desde tiempos prehistóricos. Los materiales basados en el carbono tienen aplicaciones en numerosas áreas de vanguardia tecnológica: materiales compuestos, baterías de iones de litio, descontaminación del aire y del agua, electrodos para hornos de arco, en la síntesis de aluminio, etc. Características El carbono es un elemento notable por varias razones. Sus formas alotrópicas incluyen, una de las sustancias más blandas (el grafito) y una de las más duras (el diamante) y, desde el punto de vista económico, es de los materiales más baratos (carbón) y uno de los más caros (diamante). Más aún, presenta una gran afinidad para enlazarse químicamente con otros átomos pequeños, incluyendo otros átomos de carbono con los que puede formar largas cadenas, y su pequeño radio atómico le permite formar enlaces múltiples. Así, con el oxígeno forma el dióxido de carbono, vital para el crecimiento de las plantas (ver ciclo del carbono); con el hidrógeno forma numerosos compuestos denominados genéricamente hidrocarburos, esenciales para la industria y el transporte en la forma de combustibles fósiles; y combinado con oxígeno e hidrógeno forma gran variedad de compuestos como, por ejemplo, los ácidos grasos, esenciales para la vida, y los ésteres que dan sabor a las frutas; además es vector, a través del ciclo carbono-nitrógeno, de parte de la energía producida por el Sol. Estados alotrópicos Se conocen cinco formas alotrópicas del carbono, además del amorfo: grafito, diamante, fullereno, grafeno y carbino. Una de las formas en las cuales se encuentra el carbono es el grafito, caracterizado por tener sus átomos "en los vértices de hexágonos que tapizan un plano", es de color negro, opaco y blando, y es el material del cual está hecha la parte interior de los lápices de madera. El grafito tiene exactamente los mismos átomos del diamante, pero por estar dispuestos en diferente forma tienen distintas propiedades físicas y químicas. Los diamantes naturales se forman en lugares donde el carbono ha sido sometido a grandes presiones y altas temperaturas. Su estructura es tetraédrica, que da como resultado una red tridimensional y a diferencia del grafito tiene un grado de dureza alto: 10 Mohs. Los diamantes se pueden crear artificialmente, sometiendo el grafito a temperaturas y presiones muy altas. El precio del grafito es menor al de los diamantes naturales, pero si se han elaborado adecuadamente tienen la misma dureza, color y transparencia. La forma amorfa es esencialmente grafito, pero no llega a adoptar una estructura cristalina macroscópica. Esta es la forma presente en la mayoría de los carbones y en el hollín. A presión normal, el carbono adopta la forma del grafito, en la que cada átomo está unido a otros tres en un plano compuesto de celdas hexagonales; este estado se puede describir como tres electrones de valencia en orbitales híbridos planos sp² y el cuarto en el orbital p. Las dos formas de grafito conocidas alfa (hexagonal) y beta (romboédrica) tienen propiedades físicas idénticas. Los grafitos naturales contienen más del 30 % de la forma beta, mientras que el grafito sintético contiene únicamente la forma alfa. La forma alfa puede transformarse en beta mediante procedimientos mecánicos, y esta recristalizar en forma alfa al calentarse por encima de 1000 °C. Debido a la deslocalización de los electrones del orbital pi, el grafito es conductor de la electricidad, propiedad que permite su uso en procesos de electroerosión. El material es blando y las diferentes capas, a menudo separadas por átomos intercalados, se encuentran unidas por enlaces de Van de Waals, siendo relativamente fácil que unas deslicen respecto de otras, lo que le da utilidad como lubricante. A muy altas presiones, el carbono adopta la forma del diamante, en el cual cada átomo está unido a otros cuatro átomos de carbono, encontrándose los 4 electrones en orbitales sp³, como en los hidrocarburos. El diamante presenta la misma estructura cúbica que el silicio y el germanio y, gracias a la resistencia del enlace químico carbono-carbono, es, junto con el nitruro de boro, la sustancia más dura conocida. La transición a grafito a temperatura ambiente es tan lenta que es indetectable. Bajo ciertas condiciones, el carbono cristaliza como lonsdaleíta, una forma similar al diamante pero hexagonal. El orbital híbrido sp1 que forma enlaces covalentes solo es de interés en química, manifestándose en algunos compuestos, como por ejemplo el acetileno. Los fullerenos fueron descubiertos hace 15 años tienen una estructura similar al grafito, pero el empaquetamiento hexagonal se combina con pentágonos (y en ciertos casos, heptágonos), lo que curva los planos y permite la aparición de estructuras de forma esférica, elipsoidal o cilíndrica. El constituido por 60 átomos de carbono, que presenta una estructura tridimensional y geometría similar a un balón de fútbol, es especialmente estable. Los fullerenos en general, y los derivados del C60 en particular, son objeto de intensa investigación en química desde su descubrimiento a mediados de los 1980. A esta familia pertenecen también los nanotubos de carbono, que pueden describirse como capas de grafito enrolladas en forma cilíndrica y rematadas en sus extremos por hemiesferas (fulerenos), y que constituyen uno de los primeros productos industriales de la nanotecnología. Aplicaciones El principal uso industrial del carbono es como un componente de hidrocarburos, especialmente los combustibles fósiles (petróleo y gas natural). Del primero se obtienen, por destilación en las refinerías, gasolinas, queroseno y aceites, siendo además la materia prima empleada en la obtención de plásticos. El segundo se está imponiendo como fuente de energía por su combustión más limpia. Otros usos son: El isótopo radiactivo carbono-14, descubierto el 27 de febrero de 1940, se usa en la datación radiométrica. El grafito se combina con arcilla para fabricar las minas de los lápices. Además se utiliza como aditivo en lubricantes. Las pinturas anti-radar utilizadas en el camuflaje de vehículos y aviones militares están basadas igualmente en el grafito, intercalando otros compuestos químicos entre sus capas. Es negro y blando. Sus átomos están distribuidos en capas paralelas muy separadas entre sí. Se forma a menos presión que el diamante. Aunque parezca difícil de creer, un diamante y la mina de un lapicero tienen la misma composición química: carbono. El diamante es transparente y muy duro. En su formación, cada átomo de carbono está unido de forma compacta a otros cuatro átomos. Se originan con temperaturas y presiones altas en el interior de la tierra. Se emplea para la construcción de joyas y como material de corte aprovechando su dureza. Como elemento de aleación principal de los aceros. En varillas de protección de reactores nucleares. Las pastillas de carbón se emplean en medicina para absorber las toxinas del sistema digestivo y como remedio de la flatulencia. El carbón activado se emplea en sistemas de filtrado y purificación de agua. El carbón amorfo ("hollín") se añade a la goma para mejorar sus propiedades mecánicas. Además se emplea en la formación de electrodos (p. ej. de las baterías). Obtenido por sublimación del grafito, es fuente de los fullerenos que pueden ser extraídos con disolventes orgánicos. Los fullerenos se emplean en medicina, se ha probado que un derivado soluble en agua del C60 inhibe a los virus de inmunodeficiencia humana VIH-1 y VIH-2. La fibra de carbono (obtenido generalmente por termólisis de fibras de poliacrilato) debido a que son de alta resistencia se añade a resinas de poliéster, obteniéndose los materiales denominados fibras de carbono, son empleadas para fabricar raquetas de tenis. La fibra de carbono también se utiliza para la elaboración de bicicletas de gama alta, logrando un menor peso, mayor resistencia y mejor geometría. Las propiedades químicas y estructurales de los fullerenos, en la forma de nanotubos, prometen usos futuros en el incipiente campo de la nanotecnología. Historia El carbono fue descubierto en la prehistoria y ya era conocido en la antigüedad, a pesar de que en esta la manufacturaban mediante la combustión incompleta de materiales orgánicos. Los últimos alótropos conocidos, los fullerenos (C60), fueron descubiertos como subproducto en experimentos realizados con gases moleculares en la década de los 80. Se asemejan a un balón de fútbol, por lo que coloquialmente se les llama futbolenos. Newton, en 1704, intuyó que el diamante podía ser combustible, pero no se consiguió quemar un diamante hasta 1772 en que Lavoisier demostró que en la reacción de combustión se producía CO2. Tennant demostró que el diamante era carbono puro en 1797. El isótopo más común del carbono es el 12C; en 1961 este isótopo se eligió para reemplazar al isótopo oxígeno-16 como base de los pesos atómicos, y se le asignó un peso atómico de 12. Los primeros compuestos de carbono se identificaron en la materia viva a principios del , y por ello el estudio de los compuestos de carbono se llamó química orgánica. Abundancia y obtención El carbono no se creó durante el Big Bang porque hubiera necesitado la triple colisión de partículas alfa (núcleos atómicos de helio) y el Universo se expandió y enfrió demasiado rápido para que la probabilidad de que ello aconteciera fuera significativa. Donde sí ocurre este proceso es en el interior de las estrellas (en la fase RH (Rama horizontal)) donde este elemento es abundante, encontrándose además en otros cuerpos celestes como los cometas y en las atmósferas de los planetas. Algunos meteoritos contienen diamantes microscópicos que se formaron cuando el Sistema Solar era aún un disco protoplanetario. En combinaciones con otros elementos, el carbono se encuentra en la atmósfera terrestre y disuelto en el agua, y acompañado de menores cantidades de calcio, magnesio y hierro forma enormes masas rocosas (caliza, dolomita, mármol, etc). El grafito se encuentra en grandes cantidades en Rusia, Estados Unidos, México, Groenlandia y la India. Los diamantes naturales se encuentran asociados a rocas volcánicas (kimberlita y lamproita). Los mayores depósitos de diamantes se encuentran en el África (Sudáfrica, Namibia, Botsuana, República del Congo y Sierra Leona). Existen además depósitos importantes en Canadá, Rusia, Brasil y Australia. Compuestos inorgánicos El más importante óxido de carbono es el dióxido de carbono (CO2), un componente minoritario de la atmósfera terrestre (del orden del 0,04 % en peso) producido y usado por los seres vivos (ver ciclo del carbono). En el agua forma trazas de ácido carbónico (H2CO3) —las burbujas de muchos refrescos— pero, al igual que otros compuestos similares, es inestable, aunque a través de él pueden producirse iones carbonato estables por resonancia. Algunos minerales importantes, como la calcita, son carbonatos. Los otros óxidos son el monóxido de carbono (CO) y el más raro subóxido de carbono (C3O2). El monóxido se forma durante la combustión incompleta de materias orgánicas y es incoloro e inodoro. Dado que la molécula de CO contiene un enlace triple, es muy polar, por lo que manifiesta una acusada tendencia a unirse a la hemoglobina, formando un nuevo compuesto muy peligroso denominado Carboxihemoglobina, impidiéndoselo al oxígeno, por lo que se dice que es un asfixiante de sustitución. El ion cianuro (CN−), tiene una estructura similar y se comporta como los iones haluro. Con metales, el carbono forma tanto carburos como acetiluros, ambos muy ácidos. A pesar de tener una electronegatividad alta, el carbono puede formar carburos covalentes como es el caso de carburo de silicio (SiC) cuyas propiedades se asemejan a las del diamante. Isótopos En 1961 la IUPAC adoptó el isótopo 12C como la base para la masa atómica de los elementos químicos. El carbono-14 es un radioisótopo con un periodo de semidesintegración de 5730 años que se emplea de forma extensiva en la datación de especímenes orgánicos. Los isótopos naturales y estables del carbono son el 12C (98,89 %) y el 13C (1,11 %). Las proporciones de estos isótopos en un ser vivo se expresan en variación (±‰) respecto de la referencia VPDB (Vienna Pee Dee Belemnite, fósiles cretácicos de belemnites, en Carolina del Sur). El δC-13 del CO2 de la atmósfera terrestre es −7‰. El carbono fijado por fotosíntesis en los tejidos de las plantas es significativamente más pobre en 13C que el CO2 de la atmósfera. La mayoría de las plantas presentan valores de δC-13 entre −24 y −34‰. Otras plantas acuáticas, de desierto, de marismas saladas y hierbas tropicales, presentan valores de δC-13 entre −6 y −19‰ debido a diferencias en la reacción de fotosíntesis. Un tercer grupo intermedio constituido por las algas y líquenes presentan valores entre −12 y −23‰. El estudio comparativo de los valores de δC-13 en plantas y organismos puede proporcionar información valiosa relativa a la cadena alimenticia de los seres vivos. Precauciones Los compuestos de carbono tienen un amplio rango de toxicidad. El monóxido de carbono, presente en los gases de escape de los motores de combustión y el cianuro (CN) son extremadamente tóxicos para los mamíferos, entre ellos las personas. Los gases orgánicos eteno, etino y metano son explosivos e inflamables en presencia de aire. Por el contrario, muchos otros compuestos no son tóxicos sino esenciales para la vida. El carbono puro tiene una toxicidad extremadamente baja para los humanos y puede ser manejado e incluso ingerido en forma segura en la forma de grafito o carboncillo. Es resistente a la disolución y ataque químico, incluso en los contenidos acidificados del tracto digestivo. Esto resulta en que una vez que entra a los tejidos corporales lo más probable es que permanezcan allí en forma indefinida. El negro de carbón fue probablemente el primer pigmento en ser usado para hacer tatuajes y se encontró que Ötzi el hombre del hielo tenía tatuajes hechos con carbón que sobrevivieron durante su vida y 5200 años después de su muerte. Sin embargo, la inhalación en grandes cantidades del polvo de carbón u hollín (negro de carbón) puede ser peligroso, al irritar los tejidos del pulmón y causar una enfermedad conocida como neumoconiosis de los mineros del carbón. De forma similar el polvo de diamante usado como un abrasivo puede ser dañino si se ingiere o inhala. También las micropartículas de carbón producidas por los gases de escape de los motores diésel se pueden acumular en los pulmones al ser inhaladas. En estos ejemplos, los efectos dañinos pueden resultar de la contaminación de las partículas de carbón con elementos químicos orgánicos o de metales pesados más que del carbón en sí mismo. Generalmente el carbono tiene baja toxicidad para casi toda la vida en la Tierra, sin embargo, para algunas criaturas es tóxico - por ejemplo, las nanopartículas de carbón son toxinas mortales para la Drosophila. También el carbono se puede quemar vigorosa y brillantemente en la presencia de aire a alta temperatura, como en el caso del Incendio de Windscale, el que fue causado por la repentina liberación de energía Wigner acumulada en el núcleo de grafito. Grandes acumulaciones de carbón, que han permanecido inertes por centenares de millones de años en la ausencia de oxígeno, pueden incendiarse espontáneamente cuando son expuestas al aire, como por ejemplo en los desechos de las minas de carbón. Entre la gran variedad de compuestos de carbono se pueden incluir venenos letales tales como la tetradotoxina, la ricina lectina obtenida de las semillas de ricino (Ricinus communis), el cianuro (CN−) y el envenenamiento por monóxido de carbono. Véase también Carbono 14 Compuesto orgánico Cambio climático Huella de carbono Economía baja en carbono Objetivos de Desarrollo Sostenible Central termoeléctrica Referencias Enlaces externos WebElements.com - Carbono EnvironmentalChemistry.com - Carbono It's Elemental - Carbono Instituto Nacional de Seguridad e Higiene en el Trabajo de España Ficha internacional de seguridad química del carbono. La Química de Referencia - Carbono No metales Bioelementos
347_0
Carl Sagan
Carl Edward Sagan (Nueva York, 9 de noviembre de 1934-Seattle, 20 de diciembre de 1996) fue un astrónomo, astrofísico, cosmólogo, astrobiólogo, escritor y principalmente un reconocido divulgador científico estadounidense. Inicialmente fue profesor asociado de la Universidad de Harvard y posteriormente profesor principal de la Universidad de Cornell. En esta última, fue el primer científico en ocupar la Cátedra David Duncan de Astronomía y Ciencias del Espacio, creada en 1976, y además director del Laboratorio de Estudios Planetarios. Fue un defensor del pensamiento escéptico científico y del método científico, pionero de la exobiología, promotor de la búsqueda de inteligencia extraterrestre a través del proyecto SETI. Impulsó el envío de mensajes a bordo de sondas espaciales, destinados a informar a posibles civilizaciones extraterrestres acerca de la cultura humana. Mediante sus observaciones de la atmósfera de Venus, fue de los primeros científicos en estudiar el efecto invernadero a escala planetaria. Carl Sagan ganó gran popularidad gracias a la galardonada serie documental de Televisión Cosmos: Un viaje personal, producida en 1980, de la que fue narrador y coautor. Fue la serie más vista en la historia de la televisión pública estadounidense, con una audiencia de más de menos 500 millones de personas en unos 60 países. Para acompañar la serie se publicó el libro Cosmos. También escribió la novela de ciencia ficción Contact, de 1985, en la que se basó la película homónima de 1997. Sus publicaciones, que contienen 595.000 artículos, están archivados en la Biblioteca del Congreso. También publicó numerosos artículos científicos, y fue autor, coautor o editor de más de una veintena de libros de divulgación científica. En 1978 ganó el Premio Pulitzer de "Literatura general de no ficción" por su libro Los dragones del Edén. A lo largo de su vida, Sagan recibió numerosos premios y condecoraciones por su labor como comunicador de la ciencia y la cultura. Hoy es considerado uno de los divulgadores de la ciencia más carismáticos e influyentes, gracias a su capacidad de transmitir las ideas científicas y los aspectos culturales al público no especializado con sencillez no exenta de rigor. Infancia y adolescencia Nació en Brooklyn, Nueva York, en una familia de judíos ucranianos. Su padre, Sam Sagan, era un obrero de la industria textil nacido en Kamianets-Podilsky, Ucrania, y su madre, Rachel Molly Gruber, era ama de casa. Carl recibió su nombre en honor de la madre biológica de Rachel, Chaiya Clara, en palabras de Sagan "la madre que ella nunca conoció". Tenía una hermana llamada Carol. La familia vivía en un modesto apartamento cerca del océano Atlántico, en Bensonhurst, un barrio de Brooklyn. Según Sagan, eran judíos reformistas, el más liberal de los tres principales grupos judíos. Tanto Carl como su hermana coinciden en que su padre no era especialmente religioso, pero que su madre indudablemente creía en Dios, y participaba activamente en el templo...; y solo servía carne kosher. Durante el auge de la Gran Depresión, su padre tuvo que aceptar un empleo como acomodador de cine. Según el biógrafo Keay Davidson, la guerra interior de Sagan era resultado de la estrecha relación que mantenía con sus padres, quienes eran opuestos en muchos sentidos. Sagan atribuía sus posteriores impulsos analíticos a su madre, una mujer que conoció la pobreza extrema siendo niña, y que había crecido casi sin hogar en la ciudad de Nueva York, durante la Primera Guerra Mundial y la década de 1920. Tenía las ambiciones propias de una mujer joven, pero bloqueadas por las restricciones sociales, por su pobreza, por ser mujer y esposa, y por ser judía. Davidson señala que ella, por tanto, adoraba a su hijo; él haría realidad sus sueños no cumplidos. Sin embargo, su capacidad para sorprenderse venía de su padre. En su tiempo libre, regalaba manzanas a los pobres o ayudaba a suavizar las tensiones entre patronos y obreros en la tumultuosa industria textil de Nueva York. Aunque intimidado por la brillantez de Carl, por sus infantiles parloteos sobre estrellas y dinosaurios, se tomó con calma la curiosidad de su hijo, como parte de su educación. Años más tarde, como escritor y científico, Carl recurriría a sus recuerdos de la infancia para ilustrar ideas científicas, como hizo en su libro El mundo y sus demonios. Sagan describe así la influencia de sus padres en su pensamiento posterior: La Exposición Universal de 1939 Sagan recordaba que vivió una de sus mejores experiencias cuando, con cuatro o cinco años de edad, sus padres lo llevaron a la Exposición Universal de Nueva York de 1939, lo cual fue un punto de inflexión en su vida. Tiempo después recordaba el mapa móvil de la América del Mañana: En otras exhibiciones, recordaba cómo una lámpara que iluminaba una célula fotoeléctrica creaba un sonido crujiente, y cómo el sonido de un diapasón se convertía en una onda en un osciloscopio. También fue testigo de la tecnología del futuro que reemplazaría a la radio: la televisión. Sagan escribió: También pudo ver uno de los eventos más publicitados de la Exposición: el entierro de una cápsula del tiempo en Flushing Meadows, que contenía recuerdos de la década de 1930 para ser recuperados por las generaciones venideras de un futuro milenio. "La cápsula del tiempo emocionó a Carl", escribe Davidson. De adulto, Sagan y sus colegas crearon cápsulas del tiempo similares, pero para enviarlas a la galaxia: la placa de la Pioneer y el disco de oro de las Voyager fueron producto de los recuerdos de Sagan sobre la Exposición Universal. La II Guerra Mundial Durante la II Guerra Mundial, la familia de Sagan estuvo preocupada por el destino de sus parientes europeos. Sagan, sin embargo y por lo general, no fue consciente de los detalles sobre el curso de la guerra. Escribió: "Cierto es que tuvimos parientes que quedaron atrapados en el Holocausto. Hitler no era un sujeto popular en nuestra casa... Pero, por otro lado, yo estuve bastante aislado de los horrores de la guerra". Su hermana, Carol, dijo que su madre por encima de todo quería proteger a Carl... Ella lo estaba pasando extraordinariamente mal con la II Guerra Mundial y el Holocausto. En su libro El mundo y sus demonios (1996), Sagan incluye sus recuerdos sobre aquel período conflictivo, cuando su familia se enfrentó a la realidad de la guerra en Europa, pero trató de evitar que esta socavara su espíritu optimista. Curiosidad por la naturaleza Poco después de ingresar en la escuela elemental, Sagan comenzó a expresar una fuerte curiosidad por la naturaleza. Sagan recordaba sus primeras visitas en solitario a la biblioteca pública, a la edad de cinco años, cuando su madre le regaló un carné de lector. Quería saber qué eran las estrellas, ya que ninguno de sus amigos ni sus padres sabían darle una respuesta clara: Por la época en que tenía seis o siete años, Sagan y un amigo fueron al Museo Americano de Historia Natural de la ciudad de Nueva York. Allí estuvieron en el Planetario Hayden y pasearon por las exhibiciones de objetos espaciales del museo, como los meteoritos, y las muestras de dinosaurios y animales en entornos naturales. Sagan escribió sobre esas visitas: Los padres de Sagan ayudaron a alimentar el creciente interés de este por la ciencia comprándole juegos de química y materiales de lectura. Su interés por el espacio era, sin embargo, su principal foco, especialmente después de leer las historias de ciencia ficción de escritores como Edgar Rice Burroughs, quienes estimulaban su imaginación acerca de cómo sería la vida en otros planetas, como Marte. Según el biógrafo Ray Spangenburg, estos primeros años en los que Sagan trataba de comprender los misterios de los planetas, se convirtieron en una fuerza motora en su vida, una chispa continua para su intelecto, y una búsqueda que jamás sería olvidada. Formación y carrera científica Carl Sagan se graduó en la Rahway High School de Rahway, Nueva Jersey, en 1951. Se matriculó en la Universidad de Chicago, donde participó en la Ryerson Astronomical Society. En esta universidad se graduó 1954 en Artes con honores especiales y generales, en 1955 se graduó en Ciencias y en 1956 obtuvo un máster en Física, para luego doctorarse en Astronomía y Astrofísica en 1960. Durante su etapa de pregrado, Sagan trabajó en el laboratorio del genetista Hermann Joseph Muller. De 1960 a 1962, Sagan disfrutó de una Beca Miller para la Universidad de California, Berkeley. Mientras tanto, publicó un artículo en 1961 en la revista Science sobre la atmósfera de Venus, mientras también trabajaba con el equipo Mariner 2 de la NASA, y ejerció como "Consultor de Ciencias Planetarias" para la Corporación RAND. De 1962 a 1968, trabajó en el Smithsonian Astrophysical Observatory en Cambridge, Massachusetts. Después de la publicación del artículo de Sagan en Science, en 1961 los astrónomos de la Universidad de Harvard Fred Whipple y Donald Menzel le ofrecieron a Sagan la oportunidad de dar un coloquio en Harvard y posteriormente le ofrecieron un puesto de conferenciante en la institución. En cambio, Sagan pidió que lo nombraran profesor asistente, y finalmente Whipple y Menzel pudieron convencer a Harvard de que le ofreciera a Sagan el puesto de profesor asistente que solicitó. Sagan dio conferencias, realizó investigaciones y asesoró a estudiantes de posgrado en la institución desde 1963 hasta 1968, además de trabajar en el Observatorio Astrofísico Smithsoniano, también ubicado en Cambridge, Massachusetts. En 1968, a Sagan se le denegó la titularidad en Harvard. Más tarde indicó que la decisión fue muy inesperada. La denegación de la titularidad se ha achacado a varios factores, entre ellos que centraba sus intereses de forma demasiado amplia en una serie de áreas (mientras que la norma en el mundo académico es convertirse en un experto de renombre en una estrecha especialidad), y tal vez debido a su bien publicitada defensa científica, que algunos científicos percibieron como si tomara prestadas las ideas de otros para poco más que la autopromoción. Un asesor de sus años de estudiante universitario, Harold Urey, escribió una carta al comité de titularidad en la que recomendaba encarecidamente no conceder la titularidad a Sagan. Por lo que Sagan impartió clases e investigó en la Universidad de Harvard hasta 1968, año en que se incorporó a la Universidad Cornell en Ithaca, Nueva York, donde dio cursos de pensamiento crítico hasta su muerte en 1996. En 1971, fue nombrado profesor titular y director del Laboratorio de Estudios Planetarios. De 1972 a 1981, Sagan fue director Asociado del Centro de Radiofísica e Investigación Espacial de Cornell. Desde 1976 hasta su muerte, fue el primer titular de la Cátedra David Duncan de Astronomía y Ciencias del Espacio. En Londres, impartió la edición de 1977 de las Royal Institution Christmas Lectures. Sagan estuvo vinculado al programa espacial estadounidense desde los inicios de este. Desde la década de 1950, trabajó como asesor de la NASA, donde uno de sus cometidos fue dar las instrucciones del Programa Apolo a los astronautas participantes antes de partir hacia la Luna. Sagan participó en muchas de las misiones que enviaron naves espaciales robóticas a explorar el sistema solar, preparando experimentos para varias expediciones. Concibió la idea de añadir un mensaje universal y perdurable a las naves destinadas a abandonar el sistema solar que pudiese ser potencialmente comprensible por cualquier inteligencia extraterrestre que lo encontrase. Sagan preparó el primer mensaje físico enviado al espacio exterior: una placa anodizada, unida a la sonda espacial Pioneer 10, lanzada en 1972. La Pioneer 11, que llevaba otra copia de la placa, fue lanzada al año siguiente. Sagan continuó refinando sus diseños; el mensaje más elaborado que ayudó a desarrollar y preparar fue el Disco de Oro de las Voyager, que fue enviado con las sondas espaciales Voyager en 1977. Sagan se opuso frecuentemente a la decisión de financiar el transbordador espacial y la estación espacial a expensas de futuras misiones robóticas. De 1968 a 1979, Sagan fue editor de la Revista Icarus, publicación para profesionales sobre investigación planetaria. Fue cofundador de la Sociedad Planetaria, el mayor grupo del mundo dedicado a la investigación espacial, con más de cien mil miembros en más de 149 países, y fue miembro del Consejo de Administración del Instituto SETI. Sagan ejerció también de presidente de la División de Ciencia Planetaria (DPS) de la Sociedad Astronómica Americana, de presidente de la Sección de Planetología de la American Geophysical Union y de presidente de la Sección de Astronomía de la Asociación Estadounidense para el Avance de la Ciencia. Logros científicos Las contribuciones de Sagan fueron vitales para el descubrimiento de las altas temperaturas superficiales del planeta Venus. A comienzos de la década de 1960 nadie sabía a ciencia cierta cuáles eran las condiciones básicas de la superficie de dicho planeta, y Sagan enumeró las posibilidades en un informe que posteriormente fue divulgado en un libro de Time-Life titulado Planetas. En su opinión, Venus era un planeta seco y muy caliente, oponiéndose al paraíso templado que otros imaginaban. Había investigado las emisiones de radio procedentes de Venus y llegado a la conclusión de que la temperatura superficial de este debía de ser de unos 380 °C. Como científico visitante del Laboratorio de Propulsión a Chorro de la NASA, participó en las primeras misiones del Programa Mariner a Venus, trabajando en el diseño y gestión del proyecto. En 1962, la sonda Mariner 2 confirmó sus conclusiones sobre las condiciones superficiales del planeta. Sagan fue de los primeros en plantear la hipótesis de que una de las lunas de Saturno, Titán, podría albergar océanos de compuestos líquidos en su superficie, y que una de las lunas de Júpiter, Europa, podría tener océanos de agua subterráneos. Esto haría que Europa fuese potencialmente habitable por formas de vida. El océano subterráneo de agua de Europa fue posteriormente confirmado de forma indirecta por la sonda espacial Galileo. El misterio de la bruma rojiza de Titán también fue resuelto con la ayuda de Sagan, debiéndose a moléculas orgánicas complejas en constante lluvia sobre la superficie de la luna saturniana. Sagan también contribuyó a mejorar la comprensión de las atmósferas de Venus y Júpiter y de los cambios estacionales de Marte. Determinó que la atmósfera de Venus es extremadamente caliente y densa, con presiones aumentando gradualmente hasta la superficie planetaria. También percibió el calentamiento global como un peligro creciente de origen humano, y comparó su progreso en la Tierra con la evolución natural de Venus: camino a convertirse en un planeta caliente y no apto para la vida como consecuencia de un efecto invernadero fuera de control. También estudió las variaciones de color de la superficie de Marte y concluyó que no se trataba de cambios estacionales o vegetales, como muchos creían, sino de desplazamientos del polvo superficial causados por tormentas de viento. Sin embargo, Sagan es más conocido por sus investigaciones sobre la posibilidad de la vida extraterrestre, incluyendo la demostración experimental de la producción de aminoácidos mediante radiación y a partir de reacciones químicas básicas. Él y su colega de Cornell, Edwin Ernest Salpeter, especularon sobre la posibilidad de la existencia de vida en las nubes de Júpiter, dada la composición de la densa atmósfera del planeta, rica en moléculas orgánicas. Activismo Pacifista Sagan creía que la ecuación de Drake, a falta de estimaciones más razonables, sugiere la formación de un gran número de civilizaciones extraterrestres, pero la falta de evidencia de la existencia de las mismas, resaltada por la paradoja de Fermi, indicaría la tendencia de las civilizaciones tecnológicas hacia la autodestrucción. Esto dio pie a su interés en identificar y dar a conocer las diversas maneras en que la humanidad podría destruirse a sí misma, con la esperanza de poder evitar dicha catástrofe y, finalmente, posibilitar que los seres humanos se conviertan en una especie capaz de viajar por el espacio. La profunda preocupación de Sagan acerca de una potencial destrucción de la civilización humana en un holocausto nuclear quedó plasmada en una memorable secuencia en el último episodio de la serie Cosmos, titulado ¿Quién habla en nombre de la Tierra?. Sagan acababa de dimitir de su puesto en el Consejo Científico Asesor de las Fuerzas Aéreas estadounidenses y de rechazar voluntariamente su autorización de acceso a asuntos ultra secretos en protesta por la guerra de Vietnam. Tras su matrimonio con la escritora y activista, Ann Druyan, en junio de 1981, Sagan incrementó su actividad política, concretamente en su oposición a la carrera armamentística nuclear, durante la presidencia de Ronald Reagan. En el clímax de la Guerra Fría, Sagan dedicó parte de sus esfuerzos a concienciar a la opinión pública sobre los efectos de una guerra nuclear cuando un modelo matemático del clima sugirió que un intercambio nuclear de proporciones suficientes podría desestabilizar el delicado equilibrio de la vida en la Tierra. Fue uno de los cinco autores (el autor "S") del informe TTAPS, como fue conocido dicho artículo de investigación. Finalmente, fue coautor del artículo científico que planteaba la hipótesis de un invierno nuclear global tras una guerra nuclear. En su libro El mundo y sus demonios, Carl Sagan relató su participación en los debates políticos sobre el invierno nuclear. También fue coautor del libro A Path Where No Man Thought: Nuclear Winter and the End of the Arms Race ("Un camino que ningún humano pensó: el invierno nuclear y el fin de la carrera armamentista"), un análisis exhaustivo del fenómeno del invierno nuclear. En marzo de 1983, Reagan dio a conocer la llamada Iniciativa de Defensa Estratégica, un proyecto en el que se invirtieron miles de millones de dólares para desarrollar un completo sistema de defensa contraataques con misiles nucleares, que fue popularmente conocido como Programa Guerra de las Galaxias. Sagan se opuso al proyecto, argumentando que era técnicamente imposible desarrollar un sistema semejante con el nivel de perfección requerido, y que sería mucho más caro elaborarlo que para un enemigo el eludirlo mediante señuelos u otros medios, y que su construcción desestabilizaría seriamente la balanza nuclear entre los Estados Unidos y la Unión Soviética, tornando imposible cualquier progreso hacia el desarme nuclear. Cuando el líder soviético Mijaíl Gorbachov declaró una moratoria unilateral sobre las pruebas de armamento nuclear, que comenzaría el 6 de agosto de 1985, en el 40 aniversario de los bombardeos atómicos sobre Hiroshima y Nagasaki, el gobierno de Reagan desestimó la dramática iniciativa tachándola de propaganda, y rechazó seguir el ejemplo soviético. En respuesta, activistas antinucleares y pacifistas estadounidenses llevaron a cabo una serie de protestas en el emplazamiento de pruebas de Nevada, que se iniciarían el domingo de Pascua de 1986 y continuarían hasta 1987. Cientos de personas fueron arrestadas, incluyendo a Sagan, quien fue detenido en dos ocasiones al tratar de saltar un cordón de seguridad. Búsqueda de vida extraterrestre Sagan defendió la búsqueda de vida extraterrestre, instando a la comunidad científica a utilizar radiotelescopios para buscar señales procedentes de formas de vida extraterrestres potencialmente inteligentes. Sagan fue tan persuasivo que, en 1982, logró publicar en la revista Science una petición de defensa del Proyecto SETI firmada por 70 científicos entre los que se encontraban siete ganadores del Premio Nobel, lo que supuso un enorme espaldarazo a la respetabilidad de un campo tan controvertido. Sagan también ayudó al Dr. Frank Drake para preparar el mensaje de Arecibo, una emisión de radio dirigida al espacio desde el radiotelescopio de Arecibo el 16 de noviembre de 1974, destinada a informar sobre la existencia de la Tierra a posibles seres extraterrestres. Defensor de la marihuana Sagan fue consumidor y defensor del uso de la marihuana. Bajo el pseudónimo Mr. X, aportó un ensayo sobre el cannabis fumado al libro de 1971, Marihuana Reconsidered. El ensayo explicaba que el uso de la marihuana había ayudado a inspirar parte de los trabajos de Sagan y a mejorar sus experiencias sensoriales e intelectuales. Tras la muerte de Sagan, su amigo Lester Grinspoon desveló esta información al biógrafo Keay Davidson. La publicación de la biografía Carl Sagan: Una vida, en 1999, atrajo la atención de los medios hacia este aspecto de la vida de Sagan. Poco después de su muerte, su viuda, Ann Druyan, aceptó formar parte de la junta asesora de la NORML, una fundación dedicada a la reforma de la legislación sobre el cannabis. Vida privada, ideas y creencias Matrimonios y descendencia Sagan contrajo matrimonio tres veces: en 1957, con la bióloga Lynn Margulis, madre del escritor Dorion Sagan y del programador y empresario informático Jeremy Sagan; en 1968, con la artista y guionista Linda Salzman, madre del escritor y guionista Nick Sagan; y en 1981, con la escritora y activista Ann Druyan, madre de la productora, guionista y directora Sasha Sagan y de Sam Sagan; unión que duraría hasta la muerte del científico en 1996. Sus mujeres fueron: Ann Druyan(1981-1996),Linda Salzman Sagan(1968-1981) y Lynn Margulis(1957-1964) Ciencia y religión El escritor Isaac Asimov describió a Sagan como una de las dos únicas personas que había conocido cuyo intelecto superaba al suyo, siendo la otra el informático y experto en inteligencia artificial, Marvin Minsky. Sagan escribía a menudo sobre la religión y sobre la relación entre esta y la ciencia, expresando su escepticismo sobre la convencional conceptualización de Dios como ser sapiente: En otra descripción de su punto de vista sobre Dios, Sagan afirma rotundamente: En el libro El mundo y sus demonios (1995), Sagan ejemplifica la falacia del argumento especial con ejemplos exclusivamente religiosos: En 1996, en respuesta a una pregunta acerca de sus creencias religiosas, Sagan contestó: Soy agnóstico. El punto de vista de Sagan sobre la religión ha sido interpretado como una forma de panteísmo comparable a la creencia de Einstein en el Dios de Spinoza. Sagan sostenía que la idea de un creador del universo era difícil de probar o refutar, y que el único descubrimiento científico que podría desafiarla sería el de un universo infinitamente viejo. Según su última esposa, Ann Druyan, Sagan no era creyente: En 2006, Ann Druyan editó las Conferencias Gifford sobre Teología Natural, impartidas por Sagan en Glasgow, en el año 1985, incluyéndolas en un libro llamado La diversidad de la ciencia: una visión personal de la búsqueda de Dios, en el que el astrónomo expone su punto de vista sobre la divinidad en el mundo natural. Librepensador y escéptico Sagan también está considerado como librepensador y escéptico; una de sus frases más famosas, de la serie Cosmos, es: Afirmaciones extraordinarias requieren evidencias extraordinarias. Dicha frase está basada en otra casi idéntica de su colega fundador del Comité para la Investigación Escéptica, Marcello Truzzi: Una afirmación extraordinaria requiere una prueba extraordinaria. Esta idea tuvo su origen en Pierre-Simon Laplace (1749–1827), matemático y astrónomo francés, quien dijo que el peso de la evidencia de una afirmación extraordinaria debe ser proporcional a su rareza. A lo largo de su vida, los libros de Sagan fueron desarrollados sobre su visión del mundo, naturalista y escéptica. En El mundo y sus demonios, Sagan presentó herramientas para probar argumentos y detectar falacias y fraudes, abogando esencialmente por el uso extensivo del pensamiento crítico y del método científico. La recopilación Miles de millones, publicada en 1997 tras la muerte de Sagan, contiene ensayos, como su visión sobre el aborto, y el relato de su viuda, Ann Druyan, sobre su muerte como escéptico, agnóstico y librepensador. Sagan advirtió contra la tendencia humana hacia el antropocentrismo. Fue asesor de los Alumnos de Cornell por el Trato Ético hacia los Animales. Hacia el final del capítulo Blues para un planeta rojo, del libro Cosmos, Sagan escribió: «Si hay vida en Marte creo que no deberíamos hacer nada con el planeta. Marte pertenecería entonces a los marcianos, aunque los marcianos fuesen solo microbios». El fenómeno ovni Sagan mostró interés en los informes sobre el fenómeno ovni al menos desde el 3 de agosto de 1952, cuando escribió una carta al secretario de Estado estadounidense Dean Acheson preguntándole cómo responderían los EE.UU. si los platillos volantes resultaran ser de origen extraterrestre. Posteriormente, en 1964, mantuvo varias conversaciones sobre el asunto con Jacques Vallée. A pesar de su escepticismo acerca de la obtención de cualquier respuesta extraordinaria a la cuestión ovni, Sagan creía que los científicos debían estudiar el fenómeno, aunque solo fuese por el gran interés que el asunto despertaba en el público. Stuart Appelle comenta que Sagan «escribió frecuentemente sobre lo que él percibía como falacias lógicas y empíricas acerca de los ovnis y las experiencias de abducción. Sagan rechazaba la explicación extraterrestre del fenómeno pero tenía la sensación de que examinar los informes ovni tendría beneficios empíricos y pedagógicos, y que el asunto sería, por tanto, una materia de estudio legítima». En 1966, Sagan fue miembro del Comité Ad Hoc para la Revisión del Proyecto Libro Azul, promovido por la Fuerza Aérea de los EE.UU. para investigar el fenómeno ovni. El comité concluyó que el Libro Azul dejaba qué desear como estudio científico, y recomendó la realización de un proyecto de corte universitario para someter el fenómeno a un escrutinio más científico. El resultado fue la formación del Comité Condon (1966-1968), liderado por el físico Edward Condon, y que, en su informe final, dictaminó formalmente que los ovnis, con independencia de su origen y significado, no se comportaban de manera consistente para representar una amenaza a la seguridad nacional. Ron Westrum escribe: «El punto culminante del tratamiento que Sagan dio a la cuestión ovni fue el simposio de la AAAS de 1969. Los participantes expusieron un amplio abanico de opiniones formadas en el tema, incluyendo no solo a partidarios como James McDonald y J. Allen Hynek sino también a escépticos como los astrónomos William Hartmann y Donald Menzel. La lista de ponentes estaba equilibrada, y es mérito de Sagan el que dicho evento tuviera lugar a pesar de la presión ejercida por Edward Condon». Junto al físico Thornton Page, Sagan editó las conferencias y debates presentados en el simposio; estos se publicaron en 1972 bajo el título UFOs: A Scientific Debate. En algunos de los numerosos libros de Sagan se examina la cuestión ovni (al igual que en uno de los episodios de Cosmos) y se afirma la existencia de un trasfondo religioso del fenómeno. En 1980, Sagan volvió a revelar su punto de vista sobre los viajes interestelares en la serie Cosmos. En una de sus últimas obras escritas, Sagan expuso que la probabilidad de que naves espaciales extraterrestres visitasen la Tierra era muy pequeña. Sin embargo, Sagan creía que era plausible que la preocupación causada por la Guerra Fría contribuyese a que los gobiernos desorientasen a los ciudadanos acerca de los ovnis, y que «algunos de los análisis e informes sobre ovnis, y quizá archivos voluminosos, hayan sido declarados inaccesibles al público que paga los impuestos... Es hora de que esos archivos sean desclasificados y puestos a disposición de todos». También previno acerca de sacar conclusiones sobre datos eliminados sobre los ovnis e insistió en que no existían claras evidencias de que posibles alienígenas hubieran visitado la Tierra ni en el pasado ni en el presente. Dilema de la desviación En sus últimos años, Sagan abogó por la creación de una búsqueda organizada de objetos cercanos a la Tierra (NEO, por sus siglas en inglés) que pudieran impactar contra esta. Muchos expertos, entre otras soluciones, sugirieron la creación de grandes bombas nucleares, para poder alterar la órbita de un NEO susceptible a impactar contra la Tierra. Para Sagan, esto vendría a presentar un "dilema de la desviación": al existir la capacidad de alejar un asteroide de la Tierra, también existe la capacidad de desviar un objeto no amenazante hacia esta, creando así una auténtica arma de destrucción masiva. Hipótesis errónea Debido a los incendios petroleros de Kuwait iniciados en enero de 1991, Sagan y sus colegas de "TTAPS" advirtieron que si el incendio se mantenía por varios meses, una cantidad suficiente de humo procedente de estos podría alcanzar una altura tal que llegase a desmantelar la actividad agrícola en el sur de Asia. Estas afirmaciones fueron el tema de un debate televisado entre Carl Sagan y el físico Frederick Singer para el programa televisivo Nightline, en el cual Sagan afirmó que los efectos del humo serían similares a los de un invierno nuclear. Los incendios continuaron por varios meses antes de poder ser sofocados y no causaron ningún enfriamiento de talla continental. Sagan posteriormente reconoció, en El mundo y sus demonios, que dicha predicción no resultó ser correcta: estaba oscuro como boca de lobo a mediodía y las temperaturas cayeron entre 4 y 6 °C en el Golfo Pérsico, pero no fue mucho el humo que alcanzó altitudes estratosféricas y Asia se salvó. En 2007, un estudio aplicó modelos computacionales modernos a los incendios petroleros de Kuwait, encontrando que las columnas individuales de humo no son capaces de elevarse hasta la estratosfera, pero que el humo procedente de fuegos que abarquen una gran superficie, como algunos incendios forestales o los incendios de ciudades enteras producto de un ataque nuclear, sí que elevarían cantidades significativas de humo a niveles estratosféricos. 2001: Una odisea del espacio Sagan ejerció brevemente como asesor en la película 2001: Una odisea del espacio, dirigida por Stanley Kubrick. Propuso que la película sugiriese, sin mostrarlo, la existencia de una superinteligencia extraterrestre. El caso Apple En 1994, los ingenieros de Apple Computer denominaron al ordenador personal Power Macintosh 7100 con el nombre en clave Carl Sagan. El nombre solo fue utilizado internamente, pero a Sagan le preocupaba que se convirtiera en un medio de promoción del producto y envió a Apple una carta de desistimiento. Apple aceptó, pero los ingenieros respondieron cambiando el nombre en clave interno a BHA (siglas de Butt-Head Astronomer - Astrónomo Caraculo). Entonces Sagan, denunció a Apple por difamación ante el tribunal federal. El tribunal aceptó la petición de Apple de desestimar la acusación de Sagan y opinó, en obiter dictum, que un lector situado en el contexto comprendería que Apple estaba tratando claramente de responder de forma humorística y satírica, y que se fuerza la razón al concluir que el acusado trataba de criticar la reputación o competencia del demandante como astrónomo. No se ataca en serio la pericia de un científico al usar la expresión indeterminada "caraculo". Sagan, entonces, denunció el uso inicial de su nombre por alusiones, pero volvió a perder y Sagan apeló la resolución. En noviembre de 1995, se llegó a un acuerdo extrajudicial, y la oficina de patentes y marcas de Apple emitió un comunicado conciliatorio: Apple siempre ha sentido un gran respeto hacia el Dr. Sagan. Nunca fue intención de Apple el causarle al Dr. Sagan o a su familia ninguna vergüenza o preocupación. Enfermedad y fallecimiento Dos años después de diagnosticársele una mielodisplasia, y después de someterse a tres trasplantes de médula ósea procedente de su hermana, el Dr. Carl Sagan falleció de neumonía a los 62 años de edad en el Centro de Investigación del Cáncer Fred Hutchinson de Seattle, Washington, el 20 de diciembre de 1996. Fue enterrado en el Cementerio Lakeview, Ithaca, Nueva York. Reconocimientos y premios Carl Sagan ha recibido diversos premios, condecoraciones y honores entre los que destacan: Beca Miller de Investigación (1960-1962) del Instituto Miller. Premio del Programa Apolo concedido por la NASA. Premio Klumpke-Roberts (1974) de la Sociedad Astronómica del Pacífico. Premio John W. Campbell Memorial Especial no ficción (1974) por La conexión cósmica. Medalla de la NASA al Servicio Público Distinguido (1977). Medalla de la NASA al Logro Científico Excepcional. Premio Pulitzer (1978) en la categoría de obra de no ficción general al ensayo Los dragones del Edén. Premio Lowell Thomas del Club de Exploradores en el 75.º Aniversario. Premio Peabody (1980) a la serie Cosmos. Premio Emmy (1981), en la categoría de Logro Destacado Individual, por la serie Cosmos: un viaje personal. Premio Primetime Emmy (1981), en la categoría de Serie Documental Destacada, por la serie Cosmos: un viaje personal. Premio Anual a la Excelencia Televisiva (1981) concedido por la Universidad Estatal de Ohio a la serie Cosmos: un viaje personal. Premio Hugo por el "Mejor Relato de No Ficción" (1981) al libro Cosmos. Humanista del Año (1981) de la Asociación Humanista Americana. Premio John F. Kennedy de Astronáutica (1982) de la Sociedad Astronáutica Americana. Premio Joseph Priestley — "Por destacadas contribuciones al bienestar de la humanidad". Medalla Konstantín Tsiolkovski otorgada por la Federación Soviética de Cosmonautas. Premio Locus (1986) a la novela Contacto. Premio Elogio de la Razón (1987) del Comité para la Investigación Científica de las Afirmaciones de lo Paranormal Premio Masursky de la Sociedad Astronómica Americana. Medalla Oersted (1990) de la Asociación Americana de Profesores de Física. Premio Galbert de Astronáutica. Premio Helen Caldicott al Liderazgo – otorgado por la Acción Femenina por el Desarme Nuclear. Medalla de Bienestar Público (1994) de la Academia Nacional de Ciencias por sus destacadas contribuciones a la aplicación de la ciencia al bienestar público.. Premio Isaac Asimov (1994) del Comité para la Investigación Científica de las Afirmaciones de lo Paranormal. Premio San Francisco Chronicle (1998) por Contact. Puesto 99 en la clasificación de estadounidenses más importantes, el 5 de junio de 2005, en la serie The Greatest American del Discovery Channel. Miembro del Salón de la Fama de Nueva Jersey desde 2009. Reconocimiento póstumo La película Contacto, de 1997, basada en la novela homónima de Sagan y acabada tras la muerte de este, finaliza con la dedicatoria Para Carl. También en 1997 se inauguró en Ithaca, Nueva York, el Sagan Planet Walk, una recreación del sistema solar, con una extensión de 1,2 km, desde el centro de la zona peatonal (llamada The Commons) hasta el Sciencenter, un museo de la ciencia participativo, del que Sagan fue miembro fundador de la junta de asesores. El lugar de aterrizaje de la nave no tripulada Mars Pathfinder fue rebautizado como Carl Sagan Memorial Station el 5 de julio de 1997. Además, el asteroide 2709 Sagan lleva dicho nombre en honor al científico. Nick Sagan, hijo de Carl, es autor de varios episodios de la franquicia Star Trek. El episodio de la serie Star Trek: Enterprise titulado Terra Prime, muestra una breve imagen de los restos del robot explorador Sojourner, que formó parte de la misión Mars Pathfinder, situados junto a un monumento conmemorativo en la Carl Sagan Memorial Station, sobre la superficie marciana. El monumento muestra una frase de Sagan: Sea cual sea la razón por la que esteis en Marte, estoy encantado de que esteis aquí, y yo desearía estar con vosotros. Steve Squyres, alumno de Sagan, dirigió el equipo que depositó con éxito el rover Spirit y el rover Opportunity sobre Marte en 2004. El 9 de noviembre de 2001, en el 67.º aniversario del nacimiento de Sagan, el Ames Research Center de la NASA dedicó al científico el emplazamiento del Centro Carl Sagan para el Estudio de la Vida en el Cosmos. El responsable de la NASA, Daniel Goldin dijo: "Carl fue un visionario increíble, y ahora su legado podrá ser preservado y ampliado por un laboratorio de investigación y formación del siglo XXI dedicado a mejorar nuestra comprensión de la vida en el universo y a enarbolar la causa de la exploración espacial por siempre jamás". Ann Druyan estuvo en la apertura de puertas del Centro, el 22 de octubre de 2006. Para conmemorar el décimo aniversario de la muerte de Sagan, David Morrison, uno de sus antiguos alumnos, recordó las inmensas contribuciones de Sagan a la investigación planetaria, a la comprensión pública de la ciencia, y al movimiento escéptico en la revista Skeptical Inquirer. Existen, al menos, tres premios que llevan el nombre de Sagan en honor a este: El Premio Carl Sagan para la Comprensión Pública de la Ciencia otorgado por el Consejo de Presidentes de la Sociedad Científica (CSSP). Sagan fue el primer galardonado en 1993. El Premio Conmemorativo Carl Sagan, otorgado en conjunto desde 1997 por la Sociedad Astronáutica Americana y la Sociedad Planetaria. La Medalla Carl Sagan a la Excelencia en la Divulgación de la Ciencia Planetaria, otorgada desde 1998 por la División de Ciencias Planetarias (DPS) de la Sociedad Astronómica Americana, a los científicos planetarios en activo que hayan realizado algún trabajo destacado de divulgación. Sagan fue uno de los miembros del comité organizador original de la DPS. En 2006, la Medalla Carl Sagan le fue concedida al astrobiólogo y escritor David Grinspoon, hijo de Lester Grinspoon, amigo de Sagan. El 20 de diciembre de 2006, el décimo aniversario de la muerte de Sagan, el bloguero Joel Schlosberg organizó un blogatón para conmemorar el evento. La idea fue apoyada por Nick Sagan, y contó con la participación de muchos miembros de la comunidad bloguera. En agosto de 2007, el Grupo de Investigaciones Independientes (IIG) otorgó a Sagan, a título póstumo, un premio a toda su carrera científica, honor también concedido a Harry Houdini y a James Randi. En 2009, la compañía discográfica Third Man Records, organizó un proyecto de música electrónica denominado Symphony of Science a cargo del músico John Boswell, compuesto a partir de fragmentos sonoros y videos remezclados de varias obras de divulgación científica, incluida la serie Cosmos. Los videos resultantes almacenados en YouTube han recibido más de veinte millones de visionados. Gracias a las tareas de remezcla, se ha conseguido que Sagan "cante" en el tema A Glorious Dawn y "colabore" en otros. Desde 2009, por inicitiava del Center for Inquiry, varias organizaciones en pro del humanismo secular y la investigación científica promueven la celebración del Día de Carl Sagan el 9 de noviembre de cada año. El cortometraje de ciencia ficción sueco 2014 Wanderers utiliza fragmentos de la narración de Sagan de su libro Pale Blue Dot, reproducidos sobre imágenes creadas digitalmente de la posible expansión futura de la humanidad en el espacio exterior. En febrero de 2015, la banda de música sinfónica con sede en Finlandia Nightwish lanzó la canción "Sagan" como una canción extra sin álbum para su sencillo "Élan". La canción, escrita por el compositor/tecladista de la banda Tuomas Holopainen, es un homenaje a la vida y obra del difunto Carl Sagan. En agosto de 2015, se anunció que Warner Bros estaba planeando una película biográfica de la vida de Sagan. Miles de millones A partir de su aparición en Cosmos y de sus frecuentes apariciones en el programa The Tonight Show Starring Johnny Carson, se le acuñó a Sagan la muletilla miles de millones y miles de millones —en inglés estadounidense, billions and billions—. Sagan afirmaba que él nunca utilizó esa frase en la serie. Lo más parecido que llegó a expresar está en el libro Cosmos, donde habla de "miles y miles de millones": Sin embargo, su frecuente uso de la palabra billions, enfatizando la pronunciación de la "b" (de forma intencionada para no recurrir a alternativas más farragosas, como decir billions with a "b", para que el espectador distinguiese claramente dicha palabra de millions —millones—), le convirtieron en el blanco favorito de humoristas como Johnny Carson, Gary Kroeger, Mike Myers, Bronson Pinchot, Penn Jillette, Harry Shearer, y otros. Frank Zappa satirizó la expresión en su canción Be In My Video, junto con el término "luz atómica" (atomic light). Sagan se tomó todo esto de buen humor hasta tal punto que su último libro se tituló Miles de millones, iniciándolo con un análisis burlesco de la famosa expresión, señalando que el propio Carson era un aficionado a la astronomía y que sus números a menudo incluían elementos de ciencia real. Sus habituales descripciones de enormes cantidades a escala cósmica inculcaron en la percepción popular la maravilla de la inmensidad del espacio y el tiempo, como por ejemplo, su frase El número total de estrellas en el Universo es mayor que el de todos los granos de arena de todas las playas del planeta Tierra. Como homenaje humorístico, se ha definido un sagan como una unidad de medida equivalente, al menos, a cuatro mil millones, puesto que el número más pequeño que puede ser descrito como miles de millones y miles de millones es dos mil millones más dos mil millones. Obra divulgativa Sagan fue conocido por su labor como divulgador de la ciencia, por sus esfuerzos para incrementar la comprensión científica del público en general y por su posición en favor del escepticismo científico y contra las pseudociencias. Escribió libros de divulgación científica que reflejan y desarrollan algunos de los temas tratados en Cosmos, entre los que destacan Los dragones del Edén: Especulaciones sobre la evolución de la inteligencia humana (1977), que ganó un Premio Pulitzer y se convirtió en el libro de ciencia en inglés más vendido de todos los tiempos; y El cerebro de Broca: Reflexiones sobre el romance de la ciencia. También escribió, en 1985, la exitosa novela de ciencia ficción Contacto, basada en un proyecto de guion que ideó con su esposa en 1979, pero no viviría para ver la adaptación cinematográfica del mismo, estrenada en 1997. Luego de Cosmos, escribió un libro llamado Un punto azul pálido: Una visión del futuro humano en el espacio, que fue seleccionado como libro destacado de 1995 por The New York Times. En enero de ese año, Sagan apareció en el programa de Charlie Rose, en el PBS. También escribió una introducción al exitoso libro de Stephen Hawking, Breve historia del tiempo, en su primera edición en lengua inglesa (1988). Dicha introducción fue sustituida en posteriores ediciones debido a que Sagan era el propietario de los derechos de copia. Libros Ordenados cronológicamente, los años corresponden a las fechas de primera publicación en lengua inglesa. El ISBN puede no estar relacionado con el año. Vida inteligente en el Universo (Iósif Shklovski; coautor) (1966) - ISBN 978-84-7634-911-3 Planetas (Jonathon Norton Leonard; coautor) (1966) - Acerca del posible origen, composición, atmósfera y superficie de los planetas, y sus posibilidades de albergar vida. Comunicación con inteligencias extraterrestres (1973) - ISBN 978-84-320-3551-7 La conexión cósmica (1973) - Discute la probabilidad de la existencia de vida extraterrestre inteligente - ISBN 978-84-01-47090-5 Marte y la mente del hombre (Arthur C. Clarke y otros; coautor) (1973) - Discusión entre diversos autores en relación con Marte, con ocasión de la llegada de Mariner 9 a dicho planeta - ISBN 978-0-06-010443-6 Otros mundos (1975) - ISBN 978-0-552-66439-4 Los dragones del Edén: Especulaciones sobre la evolución de la inteligencia humana (1977) - ISBN 0-394-41045-9 El cerebro de Broca: reflexiones sobre el apasionante mundo de la ciencia (1979) - Recopilación de artículos científicos - ISBN 978-84-253-1334-9 Cosmos (1980) - Libro complementario sobre la serie documental homónima; es su obra de divulgación más popular e influyente, y la que le hizo mundialmente famoso - ISBN 978-84-08-05304-0 Murmullos de la Tierra: el mensaje interestelar del Voyager (1981) - ISBN 978-84-320-3598-2 El cometa (con Ann Druyan) (1985) - Acerca del origen de los cometas, fue escrito en anticipación al paso del cometa Halley en 1986 - ISBN 978-84-320-4368-0 Contacto (1985) - Novela sobre un eventual contacto con una civilización extraterrestre; sirvió de base para la película homónima de 1997 - ISBN 978-84-01-46223-8 El frío y las tinieblas: el mundo después de una guerra nuclear (Paul R. Ehrlich; coautor) (1986) - ISBN 978-84-206-9525-9 El invierno nuclear (con Richard Turco) (1991) - Analiza las posibles consecuencias que tendría una guerra nuclear sobre el clima terrestre - ISBN 978-84-01-24037-9 Sombras de antepasados olvidados (con Ann Druyan) (1993) - Acerca de los orígenes de la especie humana y el desarrollo de las sociedades prehistóricas - ISBN 978-84-226-4853-6 Un punto azul pálido: una visión del futuro humano en el espacio (1994) - Planteado como secuela de Cosmos, discute la posición del ser humano en el Universo y analiza sus posibilidades como especie viajera en el espacio - ISBN 978-84-08-05907-3 El mundo y sus demonios: la ciencia como una luz en la oscuridad (1995) - Una defensa del método científico y del escepticismo frente a la superstición y la pseudociencia - ISBN 978-84-08-06015-4 Miles de millones: pensamientos de vida y muerte en la antesala del milenio (1997) - Última obra escrita por Sagan, considerada como su testamento ideológico - ISBN 84-406-8009-9 La diversidad de la ciencia: una visión personal de la búsqueda de Dios (por Ann Druyan) (2006) - Recopilación póstuma de las intervenciones de Sagan en las Conferencias Gifford sobre Teología Natural - ISBN 978-84-08-07455-7 Serie «Cosmos» En 1980, Sagan fue presentador, coautor y coproductor, junto a su esposa Ann Druyan y Steven Soter, de la popular serie de televisión de trece capítulos, Cosmos: Un viaje personal, producida por PBS, y que seguía el formato de la también serie El ascenso del hombre, presentada por Jacob Bronowski. Esta abarcó un amplio espectro de materias científica que incluían el origen de la vida y la evolución del Universo y de la cultura de la especie humana, planteada esta como medio de autoconocimiento del primero. Es su obra de divulgación más popular e influyente, y la que le hizo mundialmente famoso. La serie ganó un Premio Emmy y un Premio Peabody. Ha sido emitida en más de 60 países y vista por más de 600 millones de personas, convirtiéndose en el programa del PBS más visto de la historia. Además, la revista Time publicó un artículo de portada sobre Sagan poco después del estreno, refiriéndose a él como el creador, autor principal, narrador y presentador de la nueva serie de la televisión pública Cosmos. El «efecto Sagan» El éxito y fama cosechados por Sagan, debidos a su dedicación a la divulgación, le causaron problemas profesionales y que algunos colegas le ridiculizasen. En la década de 1990 se difundió entre el mundo académico la idea de que se dedicaba más a la divulgación que a investigar, y perdió así la oportunidad de ingresar como numerario en la Universidad de Harvard y en la Academia Nacional de Ciencias de Estados Unidos. Sin embargo la producción científica de Sagan había mantenido los mismos niveles. Este tipo de situaciones, que son relativamente comunes entre científicos que se dedican además a la divulgación de la ciencia y se exponen a la opinión pública, se conocen como «efecto Sagan» a raíz del caso del astrofísico. Carl Sagan en la cultura popular Carl Sagan aparece en algunos de los videos musicales que componen la obra Symphony of Science de John Boswell: «A Glorious Dawn», «We are all conected», «Our place in the Cosmos», «The Unbroken Thread», «The Poetry of Reality (An Anthem for Science)», «The Case of Mars», «A Wave of Reason», «The Big Begining», «Ode to the Brain» y «Beyond the Horizon». Véase también Paradoja del Sol joven y débil Programa Pioneer Voyager 2 Referencias Bibliografía Davidson, Keay, Carl Sagan: Una vida. John Wiley & Sons, 31 de agosto de 2000, ISBN 0-471-39536-6, 560 p. Terzian, Yervant y Elizabeth Bilson (eds.), El Universo de Carl Sagan. Cambridge University Press, 1997, ISSN 052157286X Enlaces externos Sitio web oficial Astronomy Picture of the Day, foto homenaje a Carl Sagan de la NASA en tamaño grande (26 de diciembre de 1996) Nacidos en Brooklyn Fallecidos en Seattle Alumnado de la Universidad de Chicago Profesores de la Universidad Cornell Escritores de Estados Unidos del siglo XX Escritores de ciencia ficción de Estados Unidos Escritores de divulgación científica Escritores en inglés del siglo XX Activistas de Estados Unidos Astrónomos de Estados Unidos del siglo XX Astrofísicos de Estados Unidos Cosmólogos Polímatas Divulgadores científicos en medios audiovisuales Escépticos Agnósticos de Estados Unidos Agnósticos judíos Ganadores del Premio Pulitzer Premio Carl Sagan para la comprensión pública de la ciencia Conferencias Gifford Graduados honorarios de la Universidad de Illinois en Urbana-Champaign Profesores de la Universidad de Harvard Activistas por la legalización del cannabis Fallecidos por neumonía en Estados Unidos Críticos del creacionismo
349_0
Coma fija
La representación de coma fija es una forma de notación científica que consiste en destinar una cantidad fija de dígitos para la parte entera y otra para la parte fraccionaria. La cantidad de dígitos destinados a la parte fraccionaria indica en definitiva la posición de la coma dentro del número. Esta posición, que es siempre fija, la podemos indicar con un factor de escala implícito que ubica la coma en el lugar requerido. Es decir, podemos representar un número fraccionario como un número entero multiplicado por un factor de escala. En general, el factor de escala puede ser arbitrario e indica cuál es la longitud del intervalo que separa dos representaciones consecutivas, por ejemplo: dn-1dn-2…d0,d-1d-2…d-m=dn+m-1…d0 · b-m. Características Operaciones aritméticas Esta longitud es siempre fija para cualquier par de representaciones consecutivas en todo el rango de representación. En este sistema, el programador debe modificar el factor de escala cuando alguna operación produce un resultado fuera del rango de representación. Por ejemplo: si la suma de dos números en punto fijo produce acarreo, se debe modificar el factor de escala si no se quiere perder significación en el resultado. Esto implica modificar el factor de escala de todos los números en punto fijo que utiliza el programa con la consecuente pérdida de precisión. Estos sistemas de representación ofrecen un rango y una precisión limitados. Este sistema presenta cierta dificultad al operar con sumas y restas. El computador debe analizar el signo de los operadores para decidir la operación que tiene que hacer. Así, si la operación es una suma, pero uno de los operadores es negativo, se ha de cambiar por una resta. Por el contrario, las operaciones de multiplicar y dividir se tratan sin dificultad, operándose, por un lado, con las magnitudes, y por otro, con los signos. Rango de representación Con este sistema se representan los enteros desde el hasta el , siendo n el número de bits. Por tanto el rango de representación es y la resolución es de “1″. El “cero” presenta las dos representaciones 000…00 y 100…00, lo que a veces genera dificultades. Ejemplo Por ejemplo, el valor de los siguientes números, todos ellos representados con 8 bits: 10101,110 = 1×24 + 0×23 + 1×22 + 0×21 + 1×20 + 1×2-1 + 1×2-2 + 0×2-3 = 21,7510 corrección: 1,0101110 x 24 01001,011 = 0×24 + 1×23 + 0×22 + 0×21 + 1×20 + 0×2-1 + 1×2-2 + 1×2-3 = 9,37510 De los 8 bits hemos fijado y reservado 5 para la parte entera y 3 para la fraccionaria. En los anteriores ejemplos la coma está fija y sirve para separar la parte entera de la parte fraccionaria. Al usar la notación en coma fija, queda muy limitado el número de cantidades a representar y todas ellas deben tener la misma resolución. En el caso anterior no podremos representar números enteros mayores o iguales que 32 (25) ni números más pequeños que 0,125 (2-3). Debido a este problema, su uso se vio reducido con la aparición de la representación en coma flotante. Esta fatal hecho Véase también Tipo de dato real Coma flotante Enlaces externos Aritmética entera Aritmética computacional
350_0
Coma flotante
La representación de coma flotante (en inglés, floating point) es una forma de notación científica usada en las computadoras con la cual se pueden representar números reales extremadamente grandes y pequeños de una manera muy eficiente y compacta y con la que se pueden realizar operaciones aritméticas. El estándar actual para la representación en coma flotante es el IEEE 754. Notación científica Como la representación en coma flotante es casi idéntica a la notación científica tradicional, con algunos añadidos y algunas diferencias, primero se describirá la notación científica para entender cómo funciona y luego se describirá la representación de coma flotante y las diferencias. Representación La notación científica se usa para representar números reales. Siendo r el número real a representar, la representación en notación científica está compuesta por tres partes: c. El coeficiente, formado por un número real con un solo dígito entero seguido de una coma (o punto) y de varios dígitos fraccionarios. b. La base, que en nuestro sistema decimal es 10, y en el sistema binario de los computadores es 2. e. El exponente entero, el cual eleva la base a una potencia. Coeficiente Un signo en el coeficiente indica si el número real es positivo o negativo. El coeficiente tiene una cantidad determinada de dígitos significativos, los cuales indican la precisión del número representado, cuantos más dígitos tenga el coeficiente, más precisa es la representación. Por ejemplo, el número π puede representarse en notación científica con 3 cifras significativas, 3,14 x 100, o con 12 cifras significativas, 3,14159265359 x 100; la segunda representación tiene mucha más precisión que la primera. Base y exponente El coeficiente se multiplica por la base elevada a un exponente entero. En el sistema decimal la base es 10. Al multiplicar el coeficiente por la base elevada a una potencia entera, se desplaza la coma del coeficiente tantas posiciones (tantos dígitos) como indique el exponente. La coma se desplaza hacia la derecha si el exponente es positivo o hacia la izquierda si es negativo. Ejemplo de cómo cambia un número al variar el exponente de la base: 2,71828 x 10-2 representa al número real 0,0271828 2,71828 x 10-1 representa al número real 0,271828 2,71828 x 10 0 representa al número real 2,71828 (el exponente cero indica que la coma no se desplaza) 2,71828 x 10 1 representa al número real 27,1828 2,71828 x 10 2 representa al número real 271,828 Ejemplo Un ejemplo de número en notación científica es el siguiente: -1,234 567 89 x 103 El coeficiente es -1,23456789, tiene 9 dígitos significativos y está multiplicado por la base diez elevada a la 3. El signo del coeficiente indica si el número real representado por la notación científica es positivo o negativo. El valor de la potencia indica cuántas posiciones (cuántos dígitos) debe desplazarse la coma del coeficiente para obtener el número real final. El signo de la potencia indica si ese desplazamiento de la coma debe hacerse hacia la derecha o hacia la izquierda: una potencia positiva indica que el desplazamiento de la coma es hacia la derecha, mientras que un signo negativo indica que el desplazamiento debe ser hacia la izquierda. Si el exponente es cero, la coma no se desplaza ninguna posición. La razón de la denominación «coma flotante» es porque la coma se desplaza o «flota» tantos dígitos como indica el exponente de la base; al cambiar el exponente, la coma «flota» a otra posición. En el número representado en la notación científica anterior, -1,23456789 x 103, el exponente es 3 positivo, lo que indica que la coma del coeficiente -1,23456789 debe desplazarse 3 posiciones hacia la derecha, dando como resultado el número real equivalente: -1234,567 89 Sigue una tabla con ejemplos de números reales de tres dígitos significativos y su representación en notación científica: Como puede verse en la tabla, la representación en notación científica de los números reales es mucho más compacta cuando los números son muy grandes en magnitud o cuando son de magnitud muy pequeña (cercanos a cero); por eso, se usa mucho en ciencia, donde hay que manejar cifras enormes, como la masa del Sol, 1,98892 × 1030 kg, o muy pequeñas, como la carga del electrón, -1,602176487 × 10-19 culombios, y también por eso se usa, en forma de coma flotante, para la representación de números reales en la computadora. Representación en las computadoras y en las calculadoras Para la entrada y el despliegue de números en notación científica, las computadoras y las calculadoras pueden representarlos de diferentes maneras. Por ejemplo, dependiendo del sistema, la velocidad de la luz, 2,99792458 x 108, puede representarse como sigue: Sistema binario Un valor real se puede extender con una cantidad arbitraria de dígitos. La coma flotante permite representar solo una cantidad limitada de dígitos de un número real; es decir, solo se trabajará con los dígitos más significativos (los de mayor peso) del número real, de tal manera que un número real generalmente no se podrá representar con total precisión sino como una aproximación que dependerá de la cantidad de dígitos significativos que tenga la representación en coma flotante con que se está trabajando. La limitación se halla cuando existen dígitos de peso menor al de los dígitos de la parte significativa. En este caso, estos suelen redondearse y, si son muy pequeños, se truncan. Sin embargo, y según el uso, la relevancia de esos datos puede ser despreciable, razón por la cual el método es interesante, pese a ser una potencial fuente de error. En la representación binaria de coma flotante, el bit de mayor peso define el valor del signo (0 para positivo y 1 para negativo). Le siguen una serie de bits que definen el exponente. El resto de bits son la parte significativa. Debido a que la parte significativa está generalmente normalizada, en estos casos el bit más significativo de la parte significativa siempre es 1, así que no se representa cuando se almacena sino que se asume implícitamente. Para poder realizar los cálculos, ese bit implícito se hace explícito antes de operar con el número en coma flotante. Hay otros casos donde el bit más significativo no es un 1, como en la representación del número cero, o cuando el número es muy pequeño en magnitud y rebasa la capacidad del exponente, en cuyo caso los dígitos significativos se representan de una manera denormalizada para no perder la precisión de un solo golpe sino progresivamente. En estos casos, el bit más significativo es cero y el número va perdiendo precisión poco a poco (mientras que al realizar cálculos este se haga más pequeño en magnitud) hasta que al final se convierte en cero. Ejemplo En los próximos ejemplos se describe la notación de coma flotante. Abajo hay tres números en una representación de coma flotante de 16 bits. El bit de la izquierda es el signo, luego hay 6 bits para el exponente, seguidos de 9 bits para la parte significativa: Signo El bit de la izquierda expresa el sigma, con 0 indicando que el número es positivo y 1 indicando que el número es negativo. En los ejemplos de arriba, el primer número es negativo y los otros dos son positivos. Exponente El exponente indica cuánto se debe desplazar (hacia la derecha o hacia la izquierda) la coma binaria de la parte significativa. En este caso, el exponente ocupa 6 bits capaces de representar 64 valores diferentes; es decir, es un exponente binario (de base 2) que va desde -31 a +32 para representar potencias de 2 entre 2-31 y 2+32 e indica que la coma binaria se puede desplazar hasta 31 dígitos binarios hacia la izquierda (un número muy cercano a cero) y hasta 32 dígitos binarios hacia la derecha (un número muy grande). Pero el exponente no se almacena como un número binario con signo (desde -31 hasta +32), sino como un entero positivo equivalente que va desde 0 hasta 63. Para ello, al exponente se le debe sumar un desplazamiento (bias) que, en este caso del exponente de 6 bits (64 valores), es de 31 (31 es la mitad de los 64 valores que se pueden representar, menos 1) y, al final, el rango del exponente de -31 a +32 queda representado internamente como un número entre 0 y 63, donde los números entre 31 y 63 representan los exponentes entre 0 y 32 y los números entre 0 y 30 representan los exponentes entre -31 y -1 respectivamente: -31 0 32 <-- Exponente binario real +-------+-------+-------+-------+ 0 31 63 <-- Representación en coma flotante del exponente de 6 bits (Es el exponente binario más un bit de 31) Parte significativa La parte significativa, en este caso, está formada por 10 dígitos binarios significativos, de los cuales 9 son dígitos explícitos y 1 implícito que no se almacena. Esta parte significativa generalmente está normalizada y tendrá siempre un 1 como el bit más significativo. Debido a que, salvo ciertas excepciones, el bit más significativo del significante siempre es 1, para ahorrar espacio y para aumentar la precisión en un bit, este bit no se almacena, y por ello se denomina bit oculto o implícito; sin embargo, antes de realizar los cálculos este bit implícito debe convertirse en un bit explícito. Números reales representados La notación genérica para la coma flotante descrita arriba representa respectivamente los siguientes números reales (expresados en binario). El color rojo indica el bit más significativo, que cuando se almacena es implícito (ver arriba la parte significativa en la representación de coma flotante), pero cuando se hacen los cálculos o cuando se muestra la información se vuelve explícito: (La coma se desplaza 4 posiciones binarias (bits) a la derecha) (La coma se desplaza 4 posiciones binarias a la izquierda) (La coma se desplaza 10 posiciones binarias a la derecha) (con todos los valores expresados en representación binaria) Comparación con la coma fija Para un tamaño determinado de bytes, la notación en coma flotante puede ser más lenta de procesar y es menos precisa que la notación en coma fija, ya que, además de almacenar el número (parte significativa), también debe almacenarse el exponente, pero permite un mayor rango en los números que se pueden representar. Coprocesador numérico y bibliotecas de coma flotante Debido a que las operaciones aritméticas que se realizan con números en coma flotante son complejas, muchos sistemas destinan un procesador especial específico para este tipo de operaciones, denominado unidad de coma flotante, o tienen incorporados componentes especializados. En los casos donde no exista esta facilidad o el hardware de coma flotante no pueda realizar determinadas operaciones, se utilizan bibliotecas de software para realizar los cálculos. Formatos de coma flotante Formatos binarios de los números en coma flotante del estándar IEEE 754 (2008). Véase también Notación científica IEEE 754 Coma fija x87 Cifras significativas Notación posicional Base (aritmética) Tipo de dato real Sistema de numeración decimal Sistema binario Unidades de información Enlaces externos Aritmética en coma flotante La Guía del Punto Flotante El Sistema Binario - Tutorial sintético de números binarios con coma Cálculo de representación de comas flotantes Conversora en línea a coma flotante en Java Conversor Punto Fijo y Punto Flotante. Universidad Nacional de La Plata. Calculadora en línea de Suma y Resta de números en coma flotante Aritmética computacional Tipos de datos básicos
354_0
Ciencia ficción
Ciencia ficción es la denominación de uno de los géneros derivados de la literatura de ficción, junto con la literatura fantástica y la narrativa de terror. Algunos autores estiman que el término es una mala traducción del inglés science fiction y que la correcta es ficción científica. Nacida como género en la década de 1920 (aunque hay obras reconocibles muy anteriores) y exportada posteriormente a otros medios, como el cinematográfico, historietístico y televisivo, tiene un gran auge desde la segunda mitad del debido al interés popular acerca del futuro que despertó el espectacular avance tanto científico como tecnológico alcanzado durante todos estos años. Es un género especulativo que relata acontecimientos posibles desarrollados en un marco imaginario, cuya verosimilitud se fundamenta narrativamente en los campos de las ciencias físicas, naturales y sociales. La acción puede girar en torno a un abanico grande de posibilidades (viajes interestelares, conquista del espacio, consecuencias de una hecatombe terrestre o cósmica, evolución humana a causa de mutaciones, evolución de los robots, realidad virtual, civilizaciones alienígenas, etc.). Esta acción puede tener lugar en un tiempo pasado, presente o futuro, o, incluso, en tiempos alternativos ajenos a la realidad conocida, y tener por escenario espacios físicos (reales o imaginarios, terrestres o extraterrestres) o el espacio interno de la mente. Los personajes son igualmente diversos: a partir del patrón natural humano, recorre y explota modelos antropomórficos hasta desembocar en la creación de entidades artificiales de forma humana (robot, androide, cíborg) o en criaturas no antropomórficas. Introducción Entre los estudiosos del género no se ha podido llegar a un consenso amplio sobre una definición formal, siendo este un tema de gran controversia. En general se considera ciencia ficción a los cuentos o historias que versan sobre el impacto que producen los avances científicos, tecnológicos, sociales o culturales, presentes o futuros, sobre la sociedad o los individuos. Su nombre deriva de una traducción bastante literal del término en inglés, ya que la traducción apropiada siguiendo las reglas del castellano sería «ficción de/sobre la ciencia» (dos sustantivos, como el nombre original en inglés), y algunos lo llevan a traducir «ficción científica» (sustantivo más adjetivo) pero esto sería en inglés «scientific fiction». Si bien muchos expertos opinan que debería utilizarse este último, ficción científica, el término ya está arraigado a la cultura popular. El término original en inglés se escribe con un guion de unión cuando ocupa la función de un adjetivo o de un complemento. Por ejemplo: science-fiction novel (novela de ciencia ficción). Para tales casos, en inglés, puede usarse si se lo desea la abreviatura «sci-fi». Este uso anglosajón del guion ha dado lugar a nuevos malentendidos lingüísticos pues el guion en español aglutina sustantivos donde el segundo modifica al primero, es decir, al contrario que en inglés. Por tanto, el uso «ciencia-ficción» en castellano no solo es una falta de ortografía sino que se distancia aún más del significado original en inglés. En español la regla ortográfica del término «ciencia ficción», escrito correctamente siempre sin guion, no es otra que la de la adjetivación del segundo substantivo, como en los términos «hombre lobo» u «hombre rana», escritos siempre sin guion. En castellano también se utilizan las iniciales «CF» para referirse al género. Historia de la literatura de ciencia ficción El término «ciencia ficción» fue acuñado en 1926 por Hugo Gernsback (por el cual se llaman así los Premios Hugo) cuando lo incorporó a la portada de una de las revistas de narrativa especulativa más conocidas de los años 1920 en Estados Unidos: Amazing Stories. El uso más temprano del mismo parece datar de 1851 y es atribuido a William Wilson , pero se trata de un uso aislado y el término no se generalizó con su acepción actual, hasta que Gernsback lo utilizó de forma consistente (después de hacer un intento previo con el término «scientifiction», el cual no llegó a cuajar). Es muy posible que hoy se usara la palabra «cientificción», pero Gernsback se vio obligado a vender su primera publicación, que tenía ese nombre. Sin darse cuenta, había vendido los derechos sobre el término y muy a pesar suyo se vio obligado a dejar de usarlo y utilizar en su lugar el término «ciencia ficción». De modo, que hasta el año 1926 la ciencia ficción no existía como tal. Hasta esa fecha las narraciones que hoy día no dudamos en calificar de ciencia ficción recibían diversos nombres, tales como «viajes fantásticos», «relatos de mundos perdidos», «utopías», o «novelas científicas». El canadiense John Clute denomina a esta época anterior a la eclosión del género proto ciencia ficción. Protociencia ficción y ciencia ficción primitiva (1818-1937) A pesar de la existencia de una protociencia ficción francesa que consta de Le voyageur philosophe dans un pays inconnu aux habitants de la Terre (1761) de Daniel Jost de Villeneuve y El año 2440 (1771) del prerromántico francés Louis-Sébastien Mercier, e incluso de una española integrada por el Viaje estático al mundo planetario, 1780, de Lorenzo Hervás y Panduro y el Viaje de un filósofo a Selenópolis (1804) de Antonio Marqués y Espejo, para muchos (para los anglosajones, sobre todo) la primera obra de ciencia ficción con contenidos similares a los del género, tal y como hoy se entiende, se remonta a 1818, año en que se publica Frankenstein o El moderno Prometeo de Mary Shelley. Aunque algunos ven elementos de ciencia ficción en leyendas y mitos muchos siglos antes. En la mitología griega, se cuenta que Dédalo, el padre de Ícaro y constructor del Laberinto de Creta, construyó estatuas de madera que eran capaces de moverse solas, lo que podría ser una idea primitiva del concepto moderno de robot. Y en el folclore judío también está presente el mito del Golem. Incluso el viaje a la Luna fue objeto de iniciativas literarias antes de 1818. Luciano de Samosata, , en una novela corta, Historia Verdadera, relata un viaje a la Luna en un barco arrastrado por una providencial tromba de agua. Sin embargo, las más conocidas primerizas historias de viajes a la Luna son la de Cyrano de Bergerac, en el , y la del Barón de Münchhausen, . Sin embargo, Carl Sagan e Isaac Asimov coinciden en que Somnium (1634) de Johannes Kepler es el primer relato de ciencia ficción como tal. Somnium describe a un aventurero que viaja a la Luna y muestra la preocupación de Kepler por el tema de cómo se verían los movimientos de la Tierra desde la Luna. Habrá algunos que cuestionen la calificación de estas obras como ciencia ficción (ni siquiera como proto ciencia ficción). El propio John Clute excluye la obra de Bergerac frente a otros que consideran que Otros Mundos es auténtica ciencia ficción, ya que a pesar de estar escrito en tono de comedia recurre a los términos científicos de la época. En cualquier caso, cualquiera de estos clásicos cuentos heredan gran parte del espíritu del racionalismo cartesiano del que sentó las bases de la ciencia moderna. Resulta difícil establecer límites. Clute, en su enciclopedia ilustrada, pone en duda la existencia del género antes de finales del pero cita como precursor a Tomás Moro; que en su más famosa obra, Utopía (1516), describe en forma de narración una sociedad perfecta que reside felizmente en la isla Utopía. Sin embargo, como se comenta más arriba, casi todos los expertos reconocen que la obra que supuso un antes y un después en la concepción de la literatura de ficción científica fue la obra de Shelley. Los primeros años tras la aparición de Frankenstein dieron pocos frutos. Se puede destacar quizá otra de las obras de Shelley como El último hombre. En la década de 1830, el estadounidense Edgar Allan Poe anticipó igualmente la narrativa de ciencia ficción (o ficción científica) en relatos como La incomparable aventura de un tal Hans Pfaal, El poder de las palabras, Revelación mesmérica, La verdad sobre el caso del señor Valdemar, Un descenso al Maelström, Von Kempelen y su descubrimiento, etc. Dichos relatos reúnen algunos de los elementos primitivos de la ciencia ficción, como el mesmerismo y los viajes en globo —muy en boga en aquella época— y la especulación cosmológica, también presente en su visionario ensayo Eureka, en el cual parecen describirse los agujeros negros y algo parecido al Big Crunch (op. cit. p. 11). Posteriormente, en la década de 1850 aparece el que probablemente pasa por ser uno de los autores más prolíficos del en el campo de las aventuras de corte científico: Julio Verne, quien en 1863 publicó su primera obra con contenido de ficción científica: Cinco semanas en globo. La aparición de esta obra supone un hito. A partir de su publicación, este género empieza a transformar sus intenciones. La ciencia subyacente pasa de ser un motivo de inquietud o de preocupación por lo desconocido, a ser un soporte de historias de aventuras y descubrimientos. Ciencia ficción primitiva Europa La rama europea de la ciencia ficción comenzó propiamente a finales del con las novelas científicas de Julio Verne (1828-1905), cuya ciencia se centraba más bien en invenciones, así como con las novelas de crítica social con orientación científica de H. G. Wells (1866-1946). Sin embargo, aunque Wells suele ser reconocido como el gran iniciador del género, Roger Luckhurst demuestra que solo fue el más influyente de una corriente que comenzó pocos años antes. Wells y Verne rivalizaron en la primitiva ciencia ficción. Los relatos y novelas cortas con temas fantásticos aparecieron en las publicaciones periódicas en los últimos años del , y muchos de ellos emplearon ideas científicas como una excusa para lanzarse a la imaginación. Aunque es más conocido por otros trabajos, Arthur Conan Doyle también escribió ciencia ficción. El único libro en el que Charles Dickens se aventura en el territorio de la especulación científica y los extraños misterios de la naturaleza (en contraposición a los claramente sobrenaturales fantasmas de Navidad) fue en su novela Bleak House (1852) en la que uno de sus personajes muere por «combustión humana espontánea». Dickens investigó casos registrados de tal efecto antes de escribir sobre el tema para ser capaz de contestar a los escépticos que se escandalizaran con su novela. El siguiente gran escritor británico de ciencia ficción tras H. G. Wells fue John Wyndham (1903-1969). A este autor le gustaba referirse a la ciencia ficción con el nombre de «fantasía lógica». Antes de la Segunda Guerra Mundial Wyndham escribió exclusivamente para las revistas pulp, pero tras la contienda se hizo famoso entre el público en general, más allá de la estrecha audiencia de los fanes de la ciencia ficción. La fama le vino de la mano de sus novelas El día de los trífidos (1951), El kraken acecha (1953), Las crisálidas (1955) y Los cuclillos de Midwich (1957). Fuera del ámbito anglosajón hay que destacar la figura de Karel Čapek, introductor del término robot en su obra teatral R.U.R. y creador del clásico de la ciencia ficción La guerra de las salamandras en 1937. España Mucho tiempo antes de que la novela de H.G. Wells, La máquina del tiempo, viera la luz, el escritor Enrique Gaspar ya había publicado una novela sobre viajes temporales. De su imaginación nació El Anacronópete, que podría ser considerada como la primera novela en la que una máquina del tiempo aparece como elemento central. Editada en Barcelona a principios de 1887. No obstante, a finales del y principios del , numerosos escritores de prestigio escriben relatos, novelas y obras de teatro de ciencia ficción, como por ejemplo Miguel de Unamuno, Azorín, Vicente Blasco Ibáñez, Agustín de Foxá, Ramiro de Maeztu o Jardiel Poncela. Muchos de estos relatos fueron publicados en una antología por Santiáñez-Tió e incluso se van editando poco a poco textos inéditos o de difícil acceso. América Latina El primer antecedente de la ciencia ficción en América Latina (y en todo el continente americano) lo escribió el fraile franciscano Manuel Antonio de Rivas a finales del , en Mérida, Yucatán. Se trata de Sizigias y cuadraturas lunares, un librito de once folios que narra un viaje a la luna. Luego, a mediados de , surgen autores ligados al romanticismo que incursionan en la ciencia ficción, como Sebastián Camacho y Zulueta en México, Juan Vicente Camacho y Nicanor Bolet Peraza en Venezuela, Eduardo Ladislao Holmberg y Leopoldo Lugones en Argentina, Francisco Campos Coello en Ecuador, o Máximo Soto Hall en Guatemala. Será a principios del cuando el género conocerá un auge con obras como Guayaquil: novela fantástica (1901) de Manuel Gallegos Naranjo, Granja blanca (1904) de Clemente Palma, La tienda de muñecos (1927) de Julio Garmendia, Una triste aventura de catorce sabios (1928) José Félix Fuenmayor, La galera de Tiberio (1932) de Enrique Bernardo Núñez, El regreso de Eva (1933) de Pepe Alemán, o los cuentos de Pablo Palacio. Posteriormente, conocerá su consolidación a mediados del con autores como Oscar Hurtado, Adolfo Bioy Casares, Angélica Gorodischer, José Balza, Luis Britto García. Estados Unidos En los Estados Unidos de América el género puede remontarnos a Mark Twain y su novela Un yanqui en la corte del rey Arturo, una novela que exploraba términos científicos aunque fueran enmarcados en una ficción caballeresca. Mediante el recurso a la «transmigración del alma» y la «transposición de épocas y cuerpos» el yankee de Twain es transportado hacia atrás en el tiempo y arrastra consigo todo el conocimiento de la tecnología del . Los resultados son catastróficos, ya que la caballeresca aristocracia del rey Arturo se ve pervertida por el notable poder de destrucción que ofrecen máquinas como las ametralladoras, los explosivos y el alambre de espino. Otro autor que escribió algunas historias de este tipo es Jack London. El autor de las novelas de aventuras en el salvaje Yukon, Alaska, y el Klondike, también escribió historias sobre extraterrestres (The Red One), sobre el futuro (El talón de hierro) o sobre los conflictos del futuro (La invasión sin precedentes). También escribió una historia sobre la invisibilidad y otra sobre un arma de energía para la que no existía defensa alguna. Estas historias impactaron en el público estadounidense y comenzaron a perfilar algunos de los temas clásicos de la ciencia ficción. Pero el autor estadounidense que mejor simboliza el nacimiento en Estados Unidos de la ciencia ficción como género de masas es Edgar Rice Burroughs quien, poco antes de la Primera Guerra Mundial, publicó Bajo las lunas de Marte (1912) en varios números de una revista especializada en aventuras. Burroughs siguió publicando en este medio durante el resto de su vida, tanto fantasía científica como historias de otros géneros (misterio, horror, fantasía y, cómo no, su personaje más conocido: Tarzán); pero, las historias de John Carter (ciclo de Marte) y Carson Napier (ciclo de Venus), aparecidas en aquellas páginas, hoy día se consideran joyas de la ciencia ficción más temprana. No obstante, el desarrollo de la ciencia ficción estadounidense como género literario específico hay que retrasarlo hasta 1926, año en el que Hugo Gernsback funda Amazing Stories, creándose la primera revista dedicada exclusivamente a las historias de ciencia ficción. Por otra parte, dado que como es bien conocido, fue él quien eligió el término scientifiction para describir a este género incipiente, el nombre de Gernsback y el vocablo al que dio origen han quedado unidos para la posteridad. Las historias que se publicaban en esta y otras exitosas revistas pulp (Weird Tales, Black Mask...), no gozaban del aval de la crítica seria, que en su mayoría las consideraban sensacionalismo literario, sin embargo fue en estas revistas, que mezclaban a partes iguales la fantasía científica con el terror, donde empezaron a brillar algunos de los grandes nombres del género, como Howard Phillips Lovecraft, Fritz Leiber, Robert Bloch, Robert E. Howard, etc. Todo ello atrajo a muchos lectores a las historias de especulación científica propiamente dicha. La Edad de Oro (1938-1950) Con el surgir en 1938 del editor John W. Campbell y su actividad en la revista Astounding Science Fiction (fundada en 1930) y con la consagración de los nuevos maestros del género: Isaac Asimov, Arthur C. Clarke y Robert A. Heinlein, la ciencia ficción empezó a ganar estatus como género literario, especialmente con este último, que fue el primer autor que consiguió que se editaran historias del género en publicaciones más generales, y fue también el que le dio mayor madurez al género e influyó poderosamente en su desarrollo posterior. Las incursiones en el género de autores que no se dedicaban exclusivamente a la ciencia ficción también generaron un mayor respeto hacia el mismo; caben destacar Karel Čapek, Aldous Huxley, C. S. Lewis y en castellano Adolfo Bioy Casares y Jorge Luis Borges. Después de la Segunda Guerra Mundial se produce una transición del género. Es la época en la que los cuentos empiezan a ser desplazados por las novelas y los argumentos ganan en complejidad. Las revistas mostraban llamativas portadas con monstruos de ojos de mosca y mujeres medio desnudas, dando una imagen atrayente para lo que era su público principal: los adolescentes. Se fundan nuevas revistas: hasta 15 nuevas publicaciones en un solo año; y alguna incluso atraviesa el océano Atlántico como la francesa Galaxie (prima hermana de la estadounidense Galaxy que empieza a publicarse el año 1950), pero ahora el género empieza a salir del terreno exclusivo del pulp. La Edad de Plata (1951-1965) Posiblemente, el que puede tal vez considerarse como primer título notable de la posguerra no fue escrito por un autor habitualmente catalogado como escritor de ciencia ficción y, de hecho, el libro ni siquiera fue catalogado como tal por su editor; pero sin duda lo es, y le dio a su autor fama mundial; nos referimos a 1984 (1948) de George Orwell. Pero la mejor tarjeta de visita del período de los años 1950 es su interminable lista de escritores que han sido la columna vertebral del género hasta casi finales de siglo: Robert A. Heinlein, Isaac Asimov, Clifford D. Simak, Arthur C. Clarke, Poul Anderson, Philip K. Dick, Ray Bradbury, Frank Herbert, Stanislav Lem y muchos otros. En cuanto a los títulos, de esta época son libros que hoy son considerados clásicos: Crónicas marcianas o Fahrenheit 451 de Ray Bradbury, Mercaderes del espacio de Frederik Pohl y Cyril M. Kornbluth, Más que humano de Theodore Sturgeon; sin olvidar El fin de la Eternidad de Isaac Asimov, y Lotería solar o El hombre en el castillo de Philip K. Dick. Algunas de ellas serían adaptadas al cine o la televisión; La naranja mecánica de Anthony Burgess es un buen ejemplo de ello. También es en esta época cuando empiezan a otorgarse los premios Hugo, cuya primera edición fue en 1953. En realidad, pese a que desde el punto de vista académico se ha venido en calificar como «edad de oro» a la etapa comprendida entre los años 1938 y 1950, para muchos, esta época debería extenderse unos quince años. Otra novela importante de este período es Dune (1965) de Frank Herbert. La Nueva Ola Los años transcurridos entre 1965 y 1972 son el período de mayor experimentación literaria de la historia del género. En Reino Unido, se puede asociar con la llegada de Michael Moorcock a la dirección de la revista New Worlds. Moorcock, entonces un joven de 24 años, dio espacio a las nuevas técnicas ejemplificadas en la literatura de William Burroughs y J.G. Ballard. Los temas empezaron a distanciarse de los tan manidos robots e imperios galácticos de las edades de oro y plata de la ciencia ficción, centrándose en temas hasta entonces inexplorados: la consciencia, los mundos interiores, relativización de los valores morales, etcétera. En Estados Unidos, los ecos de los cambios experimentados en el panorama británico tuvieron su reflejo. Autores como Samuel Ray Delany, Judith Merril, Fritz Leiber, Roger Zelazny, Philip K. Dick, Ursula K. LeGuin, Philip José Farmer y Robert Silverberg, representan la esencia de las nuevas vías de este género literario. El ciberpunk En la década de 1980 las computadoras cada vez más ubicuas y la aparición de las primeras redes informáticas globales dispararon la imaginación de jóvenes autores, convencidos de que tales prodigios producirían profundas transformaciones en la sociedad. Este germen cristalizó principalmente a través del llamado movimiento ciberpunk, un término que aglutinaba una visión pesimista y desencantada de un futuro dominado por la tecnología y el capitalismo salvaje con un ideario «punk» rebelde y subversivo, frecuentemente anarquista. Una nueva generación de escritores surgió bajo esta etiqueta, encabezados por William Gibson, Bruce Sterling y Neal Stephenson. Postciberpunk A principios de la década de 1990 ocurrió un cambio significativo en la literatura de ciencia ficción. Autores antes plenamente ciberpunk o que nunca habían pertenecido a esa corriente, comenzaron a rechazar explícitamente los clichés de dicho género, y de paso, a considerar a la tecnología con una visión más positiva. Es notorio que esto ocurría casi al mismo tiempo que se daba la acelerada introducción de las computadoras e Internet en la vida cotidiana. Conforme los autores empezaron realmente a usar las computadoras y la red global, sus opiniones y obras empezaron a cambiar y a rechazar la rebeldía y exaltación de la marginalidad del ciberpunk. En las novelas postciberpunk, es mucho más frecuente que los protagonistas sean integrantes respetables de sus comunidades: científicos, militares, policías e incluso políticos. Aun en el caso de personajes más marginales, su interés suele residir en mantener o mejorar el statu quo, no en destruirlo, tal y como era lo típico en el ciberpunk; y cuando no lo hacen, suelen ser los antagonistas. La primera novela etiquetada como postciberpunk es Snow Crash (1992) de Neal Stephenson. Además de Stephenson, han sido etiquetados como postciberpunk autores tan dispares como Nancy Kress, Greg Egan, Tad Williams, Charles Stross o Richard Morgan. Subgéneros contemporáneos En épocas recientes, a la ciencia ficción se le han agregado varios subgéneros cuyos nombres usan también el postfijo «punk». Esto por analogía con el «ciberpunk», que es ciencia ficción centrada en la cibernética. Estos subgéneros responden en ocasiones a impulsos estilísticos de los autores, o a la demanda de los lectores y espectadores, pidiendo más obras con el mismo estilo de ciertas obras originales. Entre estos subgéneros están: El Steampunk, o ciencia ficción centrada en la presencia anacrónica de ciertas tecnologías avanzadas basadas en, o coexistiendo con el motor a vapor, y situadas durante la Revolución Industrial y la época victoriana. El Biopunk, donde la ficción se centra en el impacto de grandes avances de la biotecnología. Pudiendo situarse tanto en el futuro, presente o en un pasado anacrónico. Ejemplos de obras de este estilo son el filme Gattaca, o la saga de videojuegos Bioshock. El Retrofuturismo, que retoma en tono serio o irónico, el entusiasmo por el futuro y la imaginería optimista de los años 1930, 1940 y 1950, ejemplos de este género serían obras como Sky Captain y el mundo del mañana. La ciencia ficción en otros medios En las revistas La ciencia ficción está ineludiblemente ligada a las revistas. La propia expresión ciencia ficción apareció en una de ellas. Probablemente, la primera revista periódica con algunos cuentos de este género (todavía sin nombre oficial) se podría considerar The Argosy 1896. No obstante, The Argosy no era una revista exclusivamente dedicada a las historias fantásticas con contenido científico. Otra revista temprana fue All Story, que comenzó a publicarse en 1911; en ella aparecieron la mayoría de los cuentos de Edgar R. Burroughs de fantasía científica. Sin embargo, las dos revistas precursoras más famosas no llegarían hasta la década de 1920; en 1923 empezó a publicarse Weird Tales (cuya versión española se llamó Narraciones Terroríficas), y 1926, año en el que Hugo Gernsback acuñó el término con el que definitivamente se conocería el género para la otra de las dos «precursoras oficiales»: Amazing Stories. Amazing fue la primera de todas ellas en dedicarse de forma exclusiva a la ficción de corte científico y tuvo una larga trayectoria. Sus primeras historias eran principalmente reimpresiones de obras de Poe, Wells y Verne; pero también se publicaron relatos inéditos de gente como Burroughs y Merrit. Amazing se puede considerar como la revista más influyente durante muchos años y un punto de referencia durante todo el curso de su existencia. En 1980, tras su última etapa bajo la edición de Kim Mohan, la revista dejó de publicarse y, aunque varios editores han intentado resucitarla desde entonces, actualmente se puede considerar fuera de circulación. En 1930 surgió otra de las revistas clásicas que todos los historiadores incluyen en su relación de publicaciones de la «edad de oro», Astounding Stories, la que más tarde sería reeditada por John W. Campbell como Astounding Science Fiction (1938) y que finalmente derivaría en la actual Analog Science Fiction and Fact (1960) y en la que escribieron los grandes escritores del género de aquellos días, entre los que se incluyen a Isaac Asimov, Robert A. Heinlein y Poul Anderson. Astounding/Analog (también conocida por sus siglas ASF) es considerada una revista de corte más «cientificista» que otras, siendo una de las publicaciones esenciales desde sus inicios hasta el presente. En 1971, tras la muerte de Campbell, Analog pasó a ser editada por Ben Bova, también conocido por ser el valedor de Orson Scott Card y aquel que lo lanzó a la fama. Desde 1978 la edita Stanley Schmidt. En 1949 empezó a publicarse otra revista que tiene en su haber la mayor serie de colaboraciones (en este caso ensayos científicos) de Isaac Asimov, un total de 399 colaboraciones mensuales a lo largo de 33 años. Se trata de The Magazine of Fantasy & Science Fiction. Esta revista fue primeramente editada por Antony Boucher, y su editor actual, Gordon van Gelder, mantiene una revista de gran calidad literaria. En sus páginas se han publicado clásicos como Flores para Algernon de Daniel Keyes. Otra de las revistas que no podíamos dejar de mencionar es Galaxy (1950). Inicialmente editada por Horace Leonard Gold tiene en su haber las mejores críticas literarias gracias a la aceptación del público de un género que empezaba a consagrarse fuera de los círculos del pulp. Con ver la lista de autores que publicaron en su primer número podemos hacernos una idea de su calidad y empuje: Clifford D. Simak, Theodore Sturgeon, Fritz Leiber o Isaac Asimov. Esta revista llegó a publicarse en Europa (en Francia y Alemania), tuvo cierto éxito durante casi treinta años hasta que en 1980 dejó de publicarse. A principio de los años 1990 el hijo de su fundador retomó la publicación de Galaxy, pero finalmente la empresa terminó de forma infructuosa en 1995. El género está en alza. Todos los años aparecen nuevas revistas. Algunas intentan aprovechar el tirón publicitario de un nombre conocido para entrar en un mercado muy competitivo. Es, por ejemplo, el caso de Asimov's Science Fiction que empezó a publicarse en 1977 bajo la dirección del propio Isaac Asimov y con George H. Scithers como editor. Este hecho, no obstante, no tiene porqué restar calidad a estas empresas y, por ejemplo, las historias publicadas en Asimov's han sido galardonadas con frecuencia con premios Hugo y Nébula. También en español, llegaron a publicarse algunas revistas clásicas, como la anteriormente mencionada Narraciones. Aunque también hubo iniciativas puramente autóctonas. De ellas, la más conocida comenzó su vida en 1968. Se trata de Nueva Dimensión (ND), fundada por Domingo Santos, y estuvo en circulación hasta 1983, habiendo obtenido durante esos años varios premios internacionales. Otra revista, esta mucho más moderna, con cierto renombre es Gigamesh, que empezó a publicarse en 1991; no obstante, nunca ha llegado a tener la repercusión literaria de ND. Tras varias publicaciones sin periodicidad alguna ha dejado también de publicarse. También la revista Galaxia, que bajo la dirección de León Arsenal, obtuvo en 2003 el premio a la mejor publicación de literatura fantástica, concedido por la Sociedad Europea de Ciencia ficción. Como vemos, muchas revistas han sufrido una trayectoria muy irregular, con sucesivas resucitaciones y desapariciones, hecho que ha impedido que lleguen a ser conocidas de forma extensa. Volvió a aparecer durante un tiempo una de estas últimas: Asimov Ciencia Ficción (versión española de su homónima estadounidense), pero cerró definitivamente al cabo de unos pocos años. Ninguna de las importaciones de la célebre revista estadounidense en España ha tenido éxito. Ya en los últimos años, ha aparecido el magazín en línea Scifiworld Magazine que dedicado principalmente al género fantástico en el medio audiovisual informa cada mes de las novedades del género junto a artículos de diversa índole. A partir de julio de 2006, la revista pasa a formar parte de la cadena de televisión Sci Fi y pasa a llamarse scifi.es. Otras publicaciones digitales han sido Revista Exégesis, surgida en el 2009 y especializada en el cómic de ciencia ficción; y en el género de cuento figura Axxón (una de las más antiguas revista digitales de ciencia ficción, originada en 1989). También en 2006, la A.C. Xatafi comienza la publicación digital de la revista Hélice: reflexiones críticas sobre ficción especulativa. Desde entonces ha mantenido una regularidad notable con un considerable éxito. Esta revista ha sido la primera en plantear una dignificación del género en España mediante estudios y críticas de mayor nivel, entre la difusión y el academicismo, con una consideración profesional de la figura del crítico. Ganó el premio Ignotus de la AEFCFT a la mejor revista publicada en 2007. En 2008 también la A.C. Xatafi publicó el primer número digital de Artifex, revista de cuentos de género que recoge el relevo de la edición en papel. Su precursora, tras pasar por varios formatos, se ha mantenido durante años como el referente para la publicación de relatos de ciencia ficción en España. 2008 es también el año en el que aparece la versión impresa de Scifiworld Magazine, independizados ya del canal SyFy, y que hasta el momento ha sobrepasado los 40 números convirtiéndose en la revista más longeva en España dedicada a la ciencia ficción, la fantasía y el terror en la cultura y el entretenimiento. En el cine El género de la ciencia ficción ha estado presente en el cine bien mediante la adaptación de cuentos y novelas, bien mediante la producción de películas con guiones especialmente creados para la pantalla. El cine de ciencia ficción se ha utilizado en ocasiones para la crítica de aspectos políticos o sociales y para la exploración de cuestiones filosóficas como la propia definición del ser humano. El género ha existido desde los comienzos del cine mudo, cuando el Viaje a la Luna (1902) de Georges Méliès asombró a su audiencia con sus efectos fotográficos. Desde la década de 1930 hasta la de 1950, el género consistía principalmente en películas de serie B de bajo presupuesto. Tras el hito de Stanley Kubrick de 2001: A Space Odyssey de 1968, el cine de ciencia ficción fue tomado más en serio. A finales de la década de 1970, películas de presupuesto alto con efectos especiales se convirtieron en populares entre la audiencia. Películas como Star Wars o Close Encounters of the Third Kind allanaron el camino de éxitos de ventas en las siguientes décadas como Alien: el octavo pasajero (1979), E.T., el extraterrestre (1982), Blade Runner (1982), Hombres de negro (1997) y El quinto elemento (1997). En la televisión La ciencia ficción apareció primeramente en televisión durante la época de oro de la ciencia ficción, primero en Reino Unido y después en los Estados Unidos. Los efectos especiales y otras técnicas de producción permiten que los creadores presenten una imagen viviente de un mundo imaginario que no se limita a la realidad; esto hace de la televisión un medio excelente para la ciencia ficción, que a su vez contribuye a su popularidad de esta forma. Debido a su modo de presentación visual, la televisión emplea mucha menos exposición que los libros para explicar los apuntalamientos de la puesta de ficción. Como resultado, la definición y los límites del género son observados de una forma menos estricta que en los medios impresos. Como el costo de crear un programa de televisión es relativamente alto en comparación con el costo de escribir e imprimir libros, los programas de televisión están obligados a atraer a una audiencia mucho mayor que la ficción impresa. Algunos escritores y lectores creen que un efecto de mínimo común denominador le resta calidad de la ciencia ficción en televisión, en relación con los libros. Al debilitarse los límites del género, los guionistas y espectadores deben utilizar estándares más inclusivos que los autores y lectores, de tal modo que en muchos contextos se considera que la categoría de ciencia ficción en televisión incluye a todos los géneros especulativos, entre ellos el de fantasía y el de terror. En Reino Unido, a este grupo se le llama «telefantasía». Los ejemplos más famosos y duraderos sobre trabajos en este campo son Doctor Who, Star Trek, Galáctica y Stargate, aunque muchas otras series han atraído audiencias grandes y pequeñas durante décadas. En la historieta La historieta o cómic de ciencia ficción constituye uno de los géneros más importantes en los que puede dividirse la producción historietística. Los años 1970 y 1980 fue el momento de mayor auge de la ciencia ficción en este medio, que popularizó el género entre millones de lectores. Las historietas ofrecieron las escenas más acertadas de la navegación interestelar, de los alunizajes, de las bombas atómicas o de las sociedades hiperindustrializadas. En los juegos La ciencia ficción también está presente en numerosos videojuegos y juegos de rol. Premios Literarios Los dos premios más importantes del género son los premios Hugo y los premios Nébula. Los premios Hugo, llamados así en memoria del pionero de la ciencia ficción Hugo Gernsback, son concedidos en diversas categorías por la Sociedad mundial de ciencia ficción (WSFS) durante la celebración anual de la Worldcon. Durante la misma se entrega además el premio John W. Campbell al mejor autor novel del año. Los premios Nébula son concedidos anualmente también en varias categorías por la Asociación de escritores de ciencia ficción y fantasía de Estados Unidos (SFWA). Esta asociación además concede los cotizados premios Gran Maestro a los más importantes escritores del género por la labor de toda una vida. Algunos otros premios también tienen nombres de otros insignes autores y editores del ramo: John W. Campbell Memorial (no confundir con el del mismo nombre al mejor autor novel) y los premios Clarke, Sturgeon y Philip K. Dick. También las publicaciones especializadas otorgan algunos premios de relevancia como es el caso de la revista estadounidense Locus Magazine, que anualmente otorga los premios Locus. En Europa, la Sociedad Europea de Ciencia Ficción (ESFS) se creó en 1972 y reúne a diversos profesionales del sector. Inicialmente programaba una convención bianual que a partir de 1982 se convirtió en anual, durante la cual se otorgan los premios europeos de ciencia ficción en los que se nomina al mejor: autor, traductor, promotor, publicación periódica, editorial, artista y revista. En España, existen dos grandes premios. Los premios Ignotus, otorgados por la AEFCFT, que son votados por los socios y por los asistentes a la convención nacional anual Hispacón. Serían los equivalentes españoles a los Hugo. Han sido otorgados desde 1991 y cuentan con varias categorías. Por otra parte, el Premio Xatafi-Cyberdark es otorgado por la A.C. Xatafi y por la librería virtual Cyberdark. Los premiados son elegidos por un jurado rotativo compuesto por varios críticos de toda España que a lo largo de un año discuten en lista privada sobre todo lo publicado el año anterior. Se concede desde 2006 e incluye las categorías de Mejor libro español, Mejor libro extranjero, Mejor cuento español, Mejor cuento extranjero y Mejor iniciativa editorial en España. Desde 2012, la revista Scifiworld concede también un premio en el que incluye obras literarias y audiovisuales. Otros países también tienen sus premios nacionales: el premio Seiun en Japón, los BSFA británicos, los Ditmar australianos, etcétera. Cinematográficos En Estados Unidos, se otorgan los Saturno por la Academia de cine de ciencia ficción, fantasía y horror, siendo, probablemente, los premios más importantes del género. En Europa los premios están más relacionados con festivales concretos, en los que se exhiben diferentes películas. El Festival de Cine de Sitges junto con el Festival Internacional de Cine Fantástico de Bruselas son las dos citas europeas más importantes del género. En Latinoamérica existen pocos festivales especializados, uno de ellos es el Buenos Aires Rojo Sangre. Subgéneros Ciencia ficción hard y soft Esta clasificación dicotómica, literalmente dura y blanda, se refiere a dos tendencias opuestas a la hora de elaborar los planteamientos científicos sobre los que se basa la obra. En el caso de la ciencia ficción hard los elementos científicos y técnicos están tratados con el máximo rigor, incluso cuando estos entran dentro de la pura especulación, y la narración se subordina a este rigor. La película de ciencia ficción hard por excelencia es 2001: Una odisea del espacio. Gran parte de la ciencia ficción soviética se inscribe en esta línea. dice con referencia al hard: Respecto a la ciencia ficción soft escribe: Obviamente la distinción entre ambas vertientes es difusa y podemos encontrarnos obras que comparten ambos enfoques. Pero, por lo general, los autores de ciencia ficción se pueden englobar en una categoría u otra. Principales géneros Distopías Ucronías Historia contrafactual Cyberpunk Postciberpunk Ciencia ficción militar Space opera Romance planetario Espada y planeta Space western Steampunk Temas frecuentes En la ciencia ficción se tratan una gran cantidad de temas. Algunos de ellos son: Los posibles inventos o descubrimientos científicos y técnicos futuros (tecnología de ficción) y los avances en campos como la biotecnología, nanotecnología, biónica, etc. Ingeniería genética y clonación. Futuro utópico, distópico o apocalíptico. Ucronía. Viajes en el tiempo. Vida extraterrestre. Exploración y colonización del espacio exterior. Viaje por el espacio interestelar y el espacio intergaláctico. Inteligencia artificial y robótica. Ordenadores o computadoras y redes informáticas. Solipsismo. Aportes de la ciencia ficción a la ciencia De igual manera que la ciencia ficción ha tomado muchos de sus argumentos y elementos de ambientación de conceptos o creaciones de la ciencia, esta ha tomado en ocasiones elementos de la literatura de ciencia ficción para convertirlos en conceptos reales o hipótesis de trabajo de cara al futuro científico o tecnológico. Los casos más conocidos de esta transferencia son los del término robot empleado por primera vez por el escritor checo Karel Čapek -el cual deriva de la palabra «robota», que en su idioma significa «trabajo duro y pesado»; dado que se entendía por estos como máquinas específicas para realizar estas funciones- en su obra R.U.R. (Robots Universales de Rossum), el término derivado robótica, creado en las novelas de robots de Isaac Asimov, el ascensor espacial, imaginado por Arthur C. Clarke y Charles Sheffield de manera independiente, o el concepto de órbita geoestacionaria, desarrollado por Herman Potočnik y posteriormente por Arthur C. Clarke. Es por ello que también se conoce como órbita de Clarke. Otros conceptos han sido profusamente desarrollados por la ciencia ficción incluso antes de ser tenidos en cuenta por la ciencia. Por ejemplo, Julio Verne en De la Tierra a la Luna (1865) describió cómo tres hombres son lanzados desde Florida hacia la Luna. De ese mismo punto partieron los astronautas del Apolo 11 cien años después. En The world set free (El mundo liberado, 1914), H.G. Wells predijo la energía nuclear y la utilización de la bomba atómica en una futura guerra con Alemania. Y en la novela Ralph 124C 41+ (1911), Hugo Gernsback describió detalladamente el radar antes de haber sido inventado. La ciencia ficción también ha especulado sobre la antimateria, los agujeros de gusano o la nanotecnología antes que la propia ciencia. Algunos conceptos han tenido una notable influencia, a pesar de no ser en la actualidad más que meras invenciones de la imaginación. Por ejemplo, la psicohistoria de Asimov ha influido levemente en la forma de ver la sociología desde un punto de vista matemático. Finalmente, y de modo sorprendente, algunas invenciones de la ciencia ficción han inspirado alguna de las líneas de investigación actual, como la comunicación instantánea (ansible, taquiones). Terminología Dentro de la terminología de la ciencia ficción, existen palabras que resultan comunes para los lectores asiduos del género pero no para los nuevos lectores. Sin embargo, no están creadas como una forma de lenguaje identificativo, sino que la mayor parte de las veces son ideas y conceptos interesantes que se han convertido en dominio público, dentro del género e incluso fuera de él, en el mundo de la ciencia. Estos términos son muy usados dentro de los relatos y novelas de ciencia ficción. Como ejemplo tenemos el hiperespacio, que es una especie de «espacio alternativo» por el que se puede viajar de un punto a otro; las sociedades o mentes colmena, que son sistemas con inteligencia compuestos por la mente de muchos seres y no solo de uno, etcétera. Véase también La ciencia ficción en el mundo: Ciencia ficción en castellano: Ciencia ficción de Chile Ciencia ficción en Colombia Ciencia ficción en Cuba Ciencia ficción en Ecuador Ciencia ficción en España Ciencia ficción en México Ciencia ficción en Perú Ciencia ficción en otros idiomas: Ciencia ficción en Japón Anexos Anexo:Subgéneros de la ciencia ficción Anexo:Recursos de la ciencia ficción Anexo:Terminología de la ciencia ficción Anexo:Obras de ciencia ficción con extraterrestre Anexo:Películas de ciencia ficción Ezines: Axxón Fanzine de ciencia ficción Clima ficción Teatro de ciencia ficción Internet en la ciencia ficción Ciencia ficción apocalíptica Space opera Referencias Bibliografía adicional Enlaces externos Introducción a la Ciencia Ficción Biblioteca Nacional de España. Géneros cinematográficos
381_0
Biología celular
La biología celular (anteriormente citología, del griego κύτος, que significa ‘célula’) es una rama de la biología que estudia la estructura, la función y el comportamiento de las células. La biología celular abarca tanto las células procariotas como las eucariotas y se puede dividir en muchos subtemas que pueden incluir el estudio del metabolismo celular, la comunicación celular, el ciclo celular, la bioquímica y la composición celular, la interacción con el ambiente y su ciclo vital. Historia Estudios estructurales La primera referencia al concepto de célula data del cuando el inglés Robert Hooke utilizó este término, para referirse a los pequeños huecos poliédricos que observó con su microscopio, que formaban la estructura del tejido vegetal del corcho (y por su parecido con las habitaciones de los sacerdotes llamadas «celda» (cell en inglés). No obstante, hasta el no se desarrolla este concepto considerando su estructura interior. Es en este siglo, cuando se desarrolla la teoría celular , que reconoce la célula como la unidad básica de estructura y función de todos los seres vivos, idea que constituye desde entonces uno de los pilares de la biología moderna. Fue esta teoría celular la que impulsó en buena medida las investigaciones biológicas al terreno microscópico, pues las células no son visibles a simple vista. La unidad de medida utilizada es el micrómetro (μm) antes conocida como micra, existiendo células de entre 2 y 20 μm, aunque las neuronas pueden tener una longitud mayor. La investigación microscópica pronto daría lugar al descubrimiento de la estructura celular interna incluyendo el núcleo, los cromosomas, el aparato de Golgi, las mitocondrias y otros orgánulos celulares, así como la identificación de la relación existente entre la estructura y la función de los orgánulos celulares. Ya en , la introducción del microscopio electrónico reveló detalles de la ultraestructura celular, y aparecieron la histoquímica y la citoquímica. También se descubrió la base material de la herencia, con los cromosomas y el ADN, y nació la citogenética. Estudios bioquímicos La biología celular como tal, surgió como consecuencia de un cambio en la concepción del estudio de los organismos vivos, en tanto estos mostraban funciones que sobrepasaban lo estructural. Es esencial conocer los procesos de la vida de la célula durante su ciclo celular, como son la nutrición, la respiración, la síntesis de componentes, los mecanismos de defensa, la división celular y la muerte celular. La historia de la bioquímica como la conocemos hoy en día, viene del cuando una buena parte de la biología y de la química se orientaron a la creación de una nueva disciplina integradora: la química fisiológica hoy conocida como bioquímica. Podemos entender la bioquímica como una disciplina científica integradora, que aborda el estudio de las biomoléculas y los biosistemas. Integra de esta forma las leyes químico-físicas y la evolución biológica que determinan a los biosistemas y a sus componentes. Estudios moleculares La biología molecular implica la comprensión de las interacciones de los diferentes sistemas de la célula lo que incluye muchas relaciones, entre ellas las del ADN con el ARN, la síntesis de proteínas, el metabolismo, y cómo todas esas interacciones son reguladas para conseguir un correcto funcionamiento de la célula. La biología molecular tiene como objetivo el estudio, desde el punto de vista molecular, de los procesos que se desarrollan en la célula viva. Dos macromoléculas en particular son objeto de su estudio: el ADN y las Proteínas. Esta área específica de estudio está relacionada con otros campos de la Biología Celular, como son la Ingeniería genética y la bioquímica. El estudio mediante métodos físico-químicos de la materia viva y sus procesos biológicos, incluye varias disciplinas dentro del concepto general de Biología Molecular, ellas son: Bioquímica Estructural, Bioquímica Inorgánica, Bioquímica Metabólica y Enzimología, Fisiología Molecular, Biología Molecular y Química Física. Estructura y función Estructura de células eucariotas Artículo principal: Ecuariota Las células eucariotas están compuestas por los siguientes orgánulos: Núcleo: El núcleo de la célula funciona como genoma y almacén de información genética de la célula, conteniendo todo el ADN organizado en forma de cromosomas. Está rodeado por una envoltura nuclear, que incluye poros nucleares que permiten el transporte de proteínas entre el interior y el exterior del núcleo. También es el lugar de replicación del ADN, así como de transcripción del ADN a ARN. Posteriormente, el ARN es modificado y transportado al citosol para ser traducido a proteínas. Nucléolo: Esta estructura se encuentra dentro del núcleo, suele ser densa y de forma esférica. Es el lugar donde se sintetiza el ARN ribosómico (ARNr), necesario para el ensamblaje de los ribosomas. Retículo endoplásmico (RE): Su función es sintetizar, almacenar y secretar proteínas al aparato de Golgi. Estructuralmente, el retículo endoplásmico es una red de membranas que se encuentra por toda la célula y está conectada al núcleo. Las membranas son ligeramente diferentes de una célula a otra y la función de una célula determina el tamaño y la estructura del RE. Mitocondrias: Comúnmente conocida como la central eléctrica de la célula, es un orgánulo celular de doble membrana que funciona para la producción de energía o ATP dentro de la célula. Específicamente, este es el lugar donde ocurre el ciclo de Krebs o ciclo TCA para la producción de NADH y FADH. Posteriormente, estos productos se utilizan dentro de la cadena de transporte de electrones (ETC) y la fosforilación oxidativa para la producción final de ATP. Aparato de Golgi: Se encarga de procesar, empaquetar y secretar las proteínas a su destino. Las proteínas contienen una secuencia señal que permite al aparato de Golgi reconocerlas y dirigirlas al lugar correcto. El aparato de Golgi también produce glucoproteínas y glucolípidos. Lisosoma: El lisosoma se encarga de degradar el material que llega del exterior de la célula o de antiguos orgánulos. Contiene muchas hidrolasas ácidas, proteasas, nucleasas y lipasas, que descomponen las distintas moléculas. La autofagia es el proceso de degradación a través de los lisosomas que se produce cuando una vesícula se desprende del RE y engulle el material, a continuación, se adhiere y se fusiona con el lisosoma para permitir que el material sea degradado. Ribosomas: Su función es traducir el ARN en proteínas. Sirve como lugar de síntesis de proteínas. Citoesqueleto: El citoesqueleto es una estructura que ayuda a mantener la forma y la organización general del citoplasma. Ancla los orgánulos dentro de las células y constituye la estructura y estabilidad de la célula. El citoesqueleto está compuesto por tres tipos principales de filamentos proteicos: filamentos de actina, filamentos intermedios y microtúbulos, que se mantienen unidos y enlazados a orgánulos subcelulares y a la membrana plasmática por una variedad de proteínas accesorias. Membrana celular: La membrana celular puede describirse como una bicapa de fosfolípidos y también está formada por lípidos y proteínas. Como el interior de la bicapa es hidrofóbico y para que las moléculas participen en las reacciones dentro de la célula, necesitan poder atravesar esta capa de membrana para entrar en la célula a través de la presión osmótica, la difusión, los gradientes de concentración y los canales de membrana. Centríolos: Su función es producir fibras fusiformes que se utilizan para separar los cromosomas durante la división celular. Las células eucariotas también pueden estar formadas por los siguientes componentes moleculares: Cromatina: Constituye los cromosomas y es una mezcla de ADN con diversas proteínas. Los cilios: Ayudan a propulsar sustancias y también pueden utilizarse con fines sensoriales. Metabolismo de la célula El metabolismo celular es necesario para la producción de energía para la célula y, por tanto, para su supervivencia, e incluye muchas vías. En el caso de la respiración celular, una vez que la glucosa está disponible, la glucólisis se produce en el citosol de la célula para producir piruvato. El piruvato se descarboxila mediante el complejo multienzimático para formar acetil coA, que puede utilizarse en el ciclo TCA para producir NADH y FADH2. Estos productos intervienen en la cadena de transporte de electrones para formar finalmente un gradiente de protones a través de la membrana mitocondrial interna. Este gradiente puede entonces impulsar la producción de ATP y H2O durante la fosforilación oxidativa El metabolismo en las células vegetales incluye la fotosíntesis, que es simplemente lo opuesto a la respiración, ya que en última instancia produce moléculas de glucosa. Señalización celular Más información: Señalización celular La señalización o comunicación celular es importante para la regulación celular y para que las células procesen la información del entorno y respondan en consecuencia. La señalización puede producirse por contacto celular directo o por señalización endocrina, paracrina y autocrina. El contacto directo célula-célula se produce cuando un receptor de una célula se une a una molécula que está adherida a la membrana de otra célula. La señalización endocrina se produce a través de moléculas secretadas en el torrente sanguíneo. La señalización paracrina utiliza moléculas que se difunden entre dos células para comunicarse. La autocrina es una célula que se envía una señal a sí misma mediante la secreción de una molécula que se une a un receptor de su superficie. Las formas de comunicación pueden ser a través de: Canales iónicos: Pueden ser de diferentes tipos, como los canales iónicos activados por voltaje o por ligando. Permiten la salida y entrada de moléculas e iones. Receptor acoplado a proteína G (GPCR): Está ampliamente reconocido por contener siete dominios transmembrana. El ligando se une al dominio extracelular y, una vez que lo hace, envía una señal a un factor de intercambio de guanina para convertir el GDP en GTP y activar la subunidad G-α. G-α puede dirigirse a otras proteínas como la adenil ciclasa o la fosfolipasa C, que en última instancia producen mensajeros secundarios como AMPc, Ip3, DAG y calcio. Estos mensajeros secundarios amplifican las señales y pueden dirigirse a canales iónicos o a otras enzimas. Un ejemplo de amplificación de una señal es la unión del AMPc a la PKA y su activación mediante la eliminación de las subunidades reguladoras y la liberación de la subunidad catalítica. La subunidad catalítica tiene una secuencia de localización nuclear que la impulsa a entrar en el núcleo y fosforilar otras proteínas para reprimir o activar la actividad génica. Receptores tirosina quinasas: Se unen a factores de crecimiento, promoviendo aún más la tirosina en la porción intracelular de la proteína para fosforilarla de forma cruzada. La tirosina fosforilada se convierte en una plataforma de aterrizaje para proteínas que contienen un dominio SH2, lo que permite la activación de Ras y la participación de la vía de la MAP cinasa. Crecimiento y desarrollo Ciclo de la célula eucariota Las células son la base de todos los organismos y constituyen las unidades fundamentales de la vida. El crecimiento y desarrollo de las células son esenciales para el mantenimiento del huésped y la supervivencia del organismo. Para ello, la célula pasa por las fases del ciclo celular y del desarrollo, que implican el crecimiento celular, la replicación del ADN, la división celular, la regeneración y la muerte celular. El ciclo celular se divide en cuatro fases distintas: G1, S, G2 y M. La fase G -que es la fase de crecimiento celular- constituye aproximadamente el 95% del ciclo. La proliferación de las células es instigada por los progenitores. Todas las células parten de una forma idéntica y, en esencia, pueden convertirse en cualquier tipo de célula. La señalización celular, como la inducción, puede influir en las células cercanas para determinar el tipo de célula en que se convertirá. Además, esto permite a las células del mismo tipo agregarse y formar tejidos, luego órganos y, por último, sistemas. Las fases G1, G2 y S (replicación, daño y reparación del ADN) se consideran la porción interfásica del ciclo, mientras que la fase M (mitosis) es la porción de división celular del ciclo. La mitosis se compone de muchas etapas que incluyen, profase, metafase, anafase, telofase y citocinesis, respectivamente. El resultado final de la mitosis es la formación de dos células hijas idénticas. El ciclo celular está regulado en los puntos de control del ciclo celular por una serie de factores y complejos de señalización como las ciclinas, la quinasa dependiente de ciclinas y p53. Cuando la célula ha completado su proceso de crecimiento y si se detecta que está dañada o alterada, se somete a la muerte celular, ya sea por apoptosis o necrosis, para eliminar la amenaza que puede suponer para la supervivencia del organismo. Mortalidad celular, inmortalidad del linaje celular La ascendencia de cada célula actual se remonta presumiblemente, en un linaje ininterrumpido de más de 3.000 millones de años, al origen de la vida. En realidad, no son las células las que son inmortales, sino los linajes celulares multigeneracionales.La inmortalidad de un linaje celular depende del mantenimiento del potencial de división celular. Este potencial puede perderse en cualquier linaje particular debido al daño celular, la diferenciación terminal, como ocurre en las células nerviosas, o la muerte celular programada (apoptosis) durante el desarrollo. El mantenimiento del potencial de división celular a lo largo de generaciones sucesivas depende de que se eviten y reparen correctamente los daños celulares, en particular los daños en el ADN. En los organismos sexuales, la continuidad de la línea germinal depende de la eficacia de los procesos para evitar daños en el ADN y reparar los que se produzcan. Los procesos sexuales en eucariotas, así como en procariotas, ofrecen la oportunidad de reparar eficazmente los daños del ADN en la línea germinal mediante recombinación homóloga. Fases del ciclo celular El ciclo celular es un proceso de cuatro etapas por el que pasa una célula a medida que se desarrolla y se divide. Incluye la Brecha 1 (G1), la síntesis (S), la Brecha 2 (G2) y la mitosis (M). La célula reinicia el ciclo desde G1 o lo abandona por G0 tras completarlo. La célula puede progresar desde G0 hasta la diferenciación terminal. La interfase se refiere a las fases del ciclo celular que ocurren entre una mitosis y la siguiente, e incluye G1, S y G2. Fase G1 El tamaño de la célula crece. El contenido de las células se replica. Fase S Replicación del ADN. La célula replica cada uno de los 46 cromosomas (23 pares). Fase G2 La célula se multiplica. En preparación para la división celular, se forman orgánulos y proteínas. Fase M Tras la mitosis se produce la citocinesis (separación celular) Formación de dos células hijas idénticas Fase G0 Estas células abandonan G1 y entran en G0, una fase de reposo. Una célula en G0 está haciendo su trabajo sin prepararse activamente para dividirse. Patología Artículo principal: Citopatología La rama científica que estudia y diagnostica las enfermedades a nivel celular se denomina citopatología. La citopatología se utiliza generalmente en muestras de células libres o fragmentos de tejidos, a diferencia de la rama patológica de la histopatología, que estudia tejidos enteros. La citopatología se utiliza habitualmente para investigar enfermedades que afectan a una amplia gama de localizaciones corporales, a menudo para ayudar en el diagnóstico del cáncer, pero también en el diagnóstico de algunas enfermedades infecciosas y otras afecciones inflamatorias. Por ejemplo, una aplicación común de la citopatología es la prueba de papanicolau, una prueba de detección utilizada para identificar el cáncer cervical y las lesiones cervicales precancerosas que pueden derivar en cáncer de cuello de útero. Puntos de control del ciclo celular y sistema de reparación de daños en el ADN El ciclo celular se compone de una serie de etapas bien ordenadas y consecutivas que dan lugar a la división celular. El hecho de que las células no comiencen la siguiente etapa hasta que no haya finalizado la última es un elemento significativo de la regulación del ciclo celular. Los puntos de control del ciclo celular son características que constituyen una excelente estrategia de control para la precisión del ciclo y las divisiones celulares. Las Cdks, sus homólogas ciclinas asociadas, las proteínas quinasas y las fosfatasas regulan el crecimiento y la división celular de una etapa a otra. El ciclo celular está controlado por la activación temporal de las Cdks, que se rige por la interacción de las ciclinas asociadas, la fosforilación por proteínas quinasas particulares y la desfosforilación por fosfatasas de la familia Cdc25. En respuesta al daño en el ADN, la reacción de reparación del ADN de una célula es una cascada de vías de señalización que conduce a la activación del punto de control, regula, el mecanismo de reparación en el ADN, las alteraciones del ciclo celular y la apoptosis. Numerosas estructuras bioquímicas, así como procesos que detectan daños en el ADN, son ATM y ATR, que inducen los puntos de control de reparación del ADN. El ciclo celular es una secuencia de actividades en la que los orgánulos celulares se duplican y posteriormente se separan en células hijas con precisión. Durante el ciclo celular se producen importantes acontecimientos. Los procesos que ocurren en el ciclo celular incluyen el desarrollo celular, la replicación y la segregación de cromosomas. Los puntos de control del ciclo celular son sistemas de vigilancia que controlan la integridad, precisión y cronología del ciclo celular. Cada punto de control sirve como punto final alternativo del ciclo celular, en el que se examinan los parámetros de la célula y sólo cuando se cumplen las características deseables avanza el ciclo celular por las distintas etapas. El objetivo del ciclo celular es copiar con precisión el ADN de cada organismo y, después, repartir equitativamente la célula y sus componentes entre las dos nuevas células. En los eucariotas se dan cuatro etapas principales. En G1, la célula suele estar activa y sigue creciendo rápidamente, mientras que en G2, el crecimiento celular continúa mientras las moléculas de proteínas se preparan para la separación. No se trata de tiempos de latencia; es cuando las células ganan masa, integran receptores de factores de crecimiento, establecen un genoma replicado y se preparan para la segregación cromosómica. La replicación del ADN se limita a una síntesis separada en los eucariotas, que también se conoce como fase S. Durante la mitosis, también conocida como fase M, se produce la segregación de los cromosomas. El ADN, como cualquier otra molécula, es capaz de sufrir una amplia gama de reacciones químicas. Las modificaciones en la secuencia del ADN, por otra parte, tienen un impacto considerablemente mayor que las modificaciones en otros constituyentes celulares como los ARN o las proteínas, porque el ADN actúa como una copia permanente del genoma celular. Cuando se incorporan nucleótidos erróneos durante la replicación del ADN, pueden producirse mutaciones. La mayoría de los daños en el ADN se reparan eliminando las bases defectuosas y volviendo a sintetizar la zona extirpada. Por otra parte, algunas lesiones del ADN pueden repararse invirtiendo el daño, lo que puede ser un método más eficaz para hacer frente a los tipos comunes de daño del ADN. Sólo unas pocas formas de daño del ADN se reparan de esta manera, incluidos los dímeros de pirimidina causados por la luz ultravioleta (UV) modificada por la inserción de grupos metilo o etilo en la posición O6 del anillo de purina. Dinámica de la membrana mitocondrial Las mitocondrias son conocidas como las "centrales eléctricas" de la célula por su capacidad de producir ATP, esencial para mantener la homeostasis y el metabolismo celular. Además, los investigadores conocen mejor la importancia de las mitocondrias en la biología celular gracias al descubrimiento de vías de señalización celular por parte de las mitocondrias, que son plataformas cruciales para la regulación de funciones celulares como la apoptosis. Su adaptabilidad fisiológica está estrechamente vinculada a la reconfiguración continua del canal mitocondrial de la célula a través de una serie de mecanismos conocidos como dinámica de la membrana mitocondrial, que incluyen la fusión y fragmentación (separación) de la endomembrana, así como la remodelación ultraestructural de la membrana. Como resultado, la dinámica mitocondrial regula y con frecuencia coreografía no sólo los procesos metabólicos, sino también los complicados procesos de señalización celular, como las células madre pluripotentes, la proliferación, la maduración, el envejecimiento y la mortalidad. Las mitocondrias están envueltas por dos membranas: una membrana mitocondrial interna (IMM) y una membrana mitocondrial externa (OMM), cada una con una función y estructura distintivas, que son paralelas a su doble función como centrales energéticas celulares y orgánulos de señalización. La membrana mitocondrial interna divide el lumen mitocondrial en dos partes: la membrana del borde interno, que discurre paralela a la OMM, y las cristae, que son invaginaciones multinucleadas profundamente retorcidas que dejan espacio para la ampliación de la superficie y albergan el aparato de respiración mitocondrial. La membrana mitocondrial externa, por su parte, es blanda y permeable. Por lo tanto, actúa como base para que las vías de señalización celular se congreguen, se descifren y se transporten a las mitocondrias. Además, el OMM conecta con otros orgánulos celulares, como el retículo endoplásmico (RE), los lisosomas, los endosomas y la membrana plasmática. Las mitocondrias desempeñan una amplia gama de funciones en la biología celular, lo que se refleja en su diversidad morfológica. Desde el inicio del estudio de las mitocondrias, ha quedado bien documentado que éstas pueden presentar una gran variedad de formas, variando enormemente su morfología general y ultraestructural entre células, durante el ciclo celular y en respuesta a señales metabólicas o celulares. Las mitocondrias pueden existir como orgánulos independientes o como parte de sistemas más grandes; también pueden distribuirse de forma desigual en el citosol mediante el transporte y la colocación mitocondrial regulados para satisfacer las necesidades energéticas localizadas de la célula. La dinámica mitocondrial se refiere al aspecto adaptativo y variable de las mitocondrias, incluida su forma y distribución subcelular. Autofagia La autofagia es un mecanismo de autodegradación que regula las fuentes de energía durante el crecimiento y la reacción al estrés alimentario. La autofagia también se limpia a sí misma, eliminando las proteínas agregadas, limpiando las estructuras dañadas, como las mitocondrias y el retículo endoplásmico, y erradicando las infecciones intracelulares. Además, la autofagia tiene funciones antivirales y antibacterianas dentro de la célula, y participa en el inicio de las respuestas inmunitarias distintivas y adaptativas a la contaminación vírica y bacteriana. Algunos virus incluyen proteínas de virulencia que impiden la autofagia, mientras que otros utilizan elementos de autofagia para el desarrollo intracelular o la división celular. La macroautofagia, la microautofagia y la autofagia mediada por chaperones son los tres tipos básicos de autofagia. Cuando se desencadena la macroautofagia, una membrana de exclusión incorpora una sección del citoplasma, generando el autofagosoma, un orgánulo distintivo de doble membrana. A continuación, el autofagosoma se une al lisosoma para crear un autolisosoma, en el que las enzimas lisosomales degradan los componentes. En la microautofagia, el lisosoma o la vacuola engullen una parte del citoplasma invaginando o sobresaliendo la membrana lisosomal para encerrar el citosol o los orgánulos. La autofagia mediada por chaperonas (CMA) garantiza la calidad de las proteínas digiriendo las proteínas oxidadas y alteradas en circunstancias de estrés y aportando aminoácidos mediante la desnaturalización proteica. La autofagia es el principal sistema intrínseco de degradación de péptidos, grasas, carbohidratos y otras estructuras celulares. Tanto en situaciones fisiológicas como de estrés, esta progresión celular es vital para mantener el equilibrio celular correcto. La inestabilidad de la autofagia provoca diversos síntomas de enfermedad, como inflamación, alteraciones bioquímicas, envejecimiento y neurodegeneración, debido a su implicación en el control de la integridad celular. La modificación de las redes autofagia-lisosoma es un sello típico de muchas enfermedades neurológicas y musculares. En consecuencia, la autofagia se ha identificado como una estrategia potencial para la prevención y el tratamiento de diversos trastornos. Muchos de estos trastornos se previenen o mejoran mediante el consumo de polifenoles en la comida. En consecuencia, los compuestos naturales con capacidad para modificar el mecanismo de la autofagia se consideran una opción terapéutica potencial. La creación de la doble membrana (fagoforo), que se conocería como nucleación, es el primer paso de la macroautofagia. El enfoque del fagoforo indica polipéptidos desregulados u orgánulos defectuosos que provienen de la membrana celular, el aparato de Golgi, el retículo endoplásmico y las mitocondrias. Con la conclusión del autofagocito, la ampliación del fagoforo llega a su fin. El autofagosoma se combina con las vesículas lisosomales para formar un auto-lisosoma que degrada las sustancias encapsuladas, lo que se conoce como fagocitosis. Campos de estudio Para alcanzar sus objetivos, los biólogos celulares se ven obligados a estudiar los componentes de la célula a nivel molecular (biología molecular). Componentes principales del estudio celular: membrana plasmática citoesqueleto núcleo celular ribosomas retículo endoplásmico aparato de Golgi mitocondrias cloroplastos lisosomas peroxisomas vacuolas pared celular tráfico intracelular de membranas Notables biólogos celulares o citólogos Peter Agre Günter Blobel Christian de Duve Robert Hooke H. Robert Horvitz Anton van Leeuwenhoek Peter Dennis Mitchell Walther Flemming Véase también Autofagia Histología Terminología morfológica internacional Referencias Enlaces externos Citología y Genética - revista científica en inglés. Biología celular Terminología científica
385_0
Complejo
El término complejo puede designar diferentes significados: Gramática Como adjetivo, sinónimo de complicado o difícil; cualidad de complejidad. Psicología Complejo, concepto utilizado en psicología y psicoanálisis, especialmente en psicología analítica. Arquitectura Complejo, en arquitectura y urbanismo, grupo o bloque de edificios o espacios arquitectónicos que están estructuralmente conectados entre sí y se perciben como una unidad. Matemáticas Número complejo, elemento del conjunto de los números complejos. Química Un complejo (también llamado compuesto de coordinación o complejo metálico), tipo de estructura molecular. En bioquímica, un complejo enzimático. Enlaces externos
399_0
Ocultismo
El ocultismo (también, las ciencias ocultas o las artes ocultas) es el estudio de diversos conocimientos y prácticas misteriosas como la magia, la alquimia (como disciplina espiritual y filosófica), la adivinación, etcétera, que desde la antigüedad pretenden estudiar los secretos del universo. La palabra española «ocultismo» deriva de la voz latina occultus, que significa ‘oculto, clandestino, escondido, secreto’, y que proviene de occulere (‘ocultar’). Lo oculto es todo aquello que no tiene explicación, cuyo conocimiento no está a disposición de los no iniciados. En el lenguaje común, tanto en inglés como en español, lo oculto se refiere al conocimiento de lo paranormal e inexplicable, en oposición del conocimiento de lo medible y explicable, usualmente referido como ciencia. El término a veces se utiliza para designar el conocimiento que está destinado a ciertas personas y que debe permanecer fuera de la vista de aquellos no iniciados en el tema. Para muchos estudiosos ocultistas, lo oculto es simplemente el estudio de la realidad espiritual subyacente y más profunda que va más allá de la razón pura y de las ciencias del conocimiento de lo sensible y físico. Los términos esotérico y arcano tienen un significado similar y en muchos contextos los tres términos son intercambiables. El ocultismo también se refiere a cierto tipo de organizaciones u órdenes, sus enseñanzas y prácticas y a las corrientes literarias y de filosofía espiritual, presentes e históricas, relacionadas con este tema. Ocultismo El ocultismo es el estudio de las artes, prácticas o ciencias ocultas como la magia, la alquimia, la percepción extrasensorial, la astrología, el espiritismo y la adivinación, entre otras. Ejemplos de ciencias ocultas Entre los ejemplos más importantes de ciencias ocultas desarrollados en la Antigüedad, se pueden mencionar las siguientes: adivinación (llamadas con el nombre de «artes inciertas» por el médico suizo Teofrasto Paracelso): aeromancia alectomancia auspicio cartomancia (véase también: tarot). fisiognomía geomancia hidromancia horoscopía litomancia metoposcopia necromancia o nigromancia oniromancia ornitomancia piromancia presagio quiromancia tarot alquimia espagiria astrología herbolaria teoría de las signaturas lapidario magia brujería wicca Runas mediumnidad mitología angelología demonología numerología gematría La interpretación del ocultismo y sus conceptos puede encontrarse en las estructuras de creencias de ciertas filosofías y religiones como el gnosticismo, el hermetismo, la teosofía, la wicca, el thelema, el satanismo, el neopaganismo o ―en realidad― cualquier religión. El historiador británico Nicholas Goodrick-Clarke ofrece una definición más amplia: Desarrollo histórico La historia del Ocultismo es muy antigua, su origen está vinculado con el pensamiento mitológico y muchas culturas alrededor del mundo tuvieron prácticas misteriosas y esotéricas desde el inicio de la humanidad. Históricamente ha tenido relaciones estrechas con ciertas religiones o doctrinas puesto que su concepto se ha confundido. Los ocultistas divulgan la noción de un solo Dios, un solo poder y energía. Esta energía, Dios, es el dador, el recibidor y el mismo don en sí. Renacimiento En el Renacimiento, el filósofo, médico, astrónomo, abogado, teólogo y mago alemán Cornelio Agrippa (1486-1535) realizó una obra ocultista y esotérica con influencias judeocristianas y cabalísticas. En su obra principal, De occulta philosophia libri tres (1531), recogió todo el conocimiento medieval sobre magia, astrología, alquimia, medicina y filosofía natural y lo respaldó teóricamente. Erudito de fama y protegido por distintas casas reinantes o nobles, fue amigo de gran parte de los filósofos y grandes figuras de su tiempo. También en el ocultismo se ha mencionado a Leonardo Da Vinci, personaje que se vio involucrado por abrir cuerpos y realizar cosas que en este tiempo no debían ser realizadas. Eliphas Levi A mediados del el ocultismo tuvo un período de gran apogeo en Francia, de la mano del cabalista Eliphas Lévi, quien produjo una decena de obras esotéricas de importancia, entre las que se destaca Dogma y ritual de alta magia. Sociedad Teosófica Poco tiempo después (1875), Helena Blavatsky y Henry Olcott fundan la Sociedad Teosófica en Nueva York para el estudio de los fenómenos inexplicados de la naturaleza y de las religiones comparadas. Tras la publicación de Isis sin velo y La Doctrina Secreta, el ocultismo se difundió rápidamente por todo Occidente, reapareciendo escuelas de la rosacruz, herméticas y de magia, relacionadas con la masonería. Tras la muerte de Helena Blavatsky, el movimiento teosófico se fracturó y surgieron varios grupos, de la mano de Annie Besant, William Judge y posteriormente Rudolf Steiner (fundador de la antroposofía) y Alice Bailey. La Escuela Arcana de Alice Bailey puede ser considerada el más inmediato antepasado del fenómeno de la Nueva Era y la supuesta canalización de entidades que enseñan las doctrinas del nuevo tiempo, como los maestros ascendidos, entre ellos Djwhal Khul. Del tronco teosófico también surgen otras sectas como Nueva Acrópolis. Rosacruz Aparecieron grupos de tendencia masónica, como la Fraternidad Rosacruz (de Max Heindel), la Fraternidad Rosacruz Antigua (de Arnold Krumm-Heller) y AMORC (sigla de la Antigua y Mística Orden Rosae Crucis, de Harvey Spencer Lewis). Magia ritual El moderno movimiento de la magia ritual se inspiró en las doctrinas del grupo esotérico Orden Hermética de la Aurora Dorada, el cual fue fundado por MacGregor Mathers, quien afirmaba que estaba continuando el legado de una orden rosacruz alemana conocida como Orden de la Rosa Oro Rubí y de la Cruz de Oro. Actualmente la magia ritual pone un particular énfasis en los continuadores del británico Aleister Crowley. Las ciencias ocultas y la nueva era Dentro del movimiento denominado nueva era (o new age), se ha desarrollado el interés por el conjunto de diversas creencias y de prácticas que no necesariamente excluye el interés por las anteriores. Las ideas reformuladas por sus partidarios suelen relacionarse con la medicina holística, las medicinas alternativas o tradicionales y el misticismo. También se incluyen numerosas ciencias ocultas y pseudociencias, perspectivas generales sobre historia, religión, espiritualidad, estilos de vida y ciertos tipos de música. Algunos de los temas relacionados son: aromaterapia. ayurveda. cábala. cerealogía (círculos de ovnis). civilizaciones perdidas. espiritismo. karma. flores de Bach. iridología. lectura de auras. niños índigo. piramidología. radiestesia. reiki. reencarnación. yoga. Véase también Alquimia Antroposofía Esoterismo Gnosticismo Hermetismo Iniciación Lista de prejuicios cognitivos Magia MC-14 (método científico en 14 etapas) Ocultismo nazi Sociedades secretas Supersticiones New age Referencias Enlaces externos Biblioteca Upasika Esoterismo Conceptos teosóficos
400_0
Ciencias sociales
Las ciencias sociales son las ramas de la ciencia relacionadas con la sociedad y el comportamiento humano. Se las distingue de las ciencias naturales y de las ciencias formales. Además, es una denominación genérica para las disciplinas y campos del saber que analizan y tratan distintos aspectos de las relaciones sociales y los grupos de personas que componen la sociedad. Estas se ocupan tanto de sus manifestaciones materiales como de las inmateriales. Otras denominaciones confluyentes o diferenciadas, según la intención de quien las utiliza, son las de ciencias humanas, humanidades o letras. También se utilizan distintas combinaciones de esos términos, como la de «ciencias humanas y sociales». Las ciencias sociales estudian el origen del comportamiento individual y colectivo, buscando comprender y explicar regularidades y particularidades que se expresan en el conjunto de las instituciones humanas. Historia La historia de las ciencias sociales tiene sus raíces en la filosofía antigua. En la Edad Antigua no existía diferencia entre las matemáticas y el estudio de la historia, la poesía o la política. Durante la Edad Media, la civilización islámica hizo importantes contribuciones a las ciencias sociales. Esta unidad de ciencia como restos descriptivos y razonamiento deductivo de axiomas crearon un marco científico. La Ilustración vio una revolución la cual fue denominada filosofía natural, con la que se modificó el marco básico por el cual los individuos entendían lo que era «científico». En algunos sectores, el avance reciente de los estudios matemáticos presumía una realidad independiente del observador y que funcionaba por sus propias normas. Las ciencias sociales provienen de la Filosofía Moral de la época y estuvieron influenciadas por la Era de las revoluciones, tales como la Revolución industrial y la Revolución francesa. Las ciencias sociales desarrolladas a partir de las ciencias (experimentales y aplicadas), o el conocimiento de base sistemático o prácticas prescriptivas, relaciones con el progreso social de un grupo de entidades interactuantes. Los inicios de las ciencias sociales en el están reflejados en la Enciclopedia de Diderot, con artículos de Rousseau y otros enciclopedistas. El crecimiento de las ciencias sociales también fue mostrado en otras enciclopedias especializadas. En el período moderno, el término «ciencias sociales» fue inicialmente utilizado como un campo conceptual distinto. Las ciencias sociales fueron influenciadas por el positivismo, que se centraba en el conocimiento basado en la experiencia real, mientras que la especulación metafísica fue eliminada. Auguste Comte usó el término «ciencia social» para describir el campo, tomado de las ideas de Charles Fourier; Comte también se refiere al campo de la «física social». Después de este período, hubo cinco vías de desarrollo que surgieron en las ciencias sociales, influenciadas por Comte y otros campos. Una de ellas fue la investigación social, por la cual se llevaron a cabo grandes muestras estadísticas en varias partes de Estados Unidos y Europa. Otro camino fue iniciado por Émile Durkheim, quien estudió los «hechos sociales», y por Vilfredo Pareto que introdujo ideas metateóricas y teorías individuales. Un tercer camino, desarrollado por Max Weber, surgió de la dicotomía metodológica, en la cual se identificaba y entendía el fenómeno social. La cuarta ruta se fundamentó en la economía, desarrolló y promovió el conocimiento económico como el propio de una ciencia dura. La última vía fue la correlación de conocimiento y valores sociales; Weber demandó firmemente esta distinción. En esta vía, la teoría (descripción) y la prescripción eran discusiones formales no superpuestas de un tema. Para el inicio del , la filosofía ilustrada había sido desafiada en varios frentes. Después de la utilización de las teorías clásicas desde el final de la revolución científica, diversos campos sustituyeron los estudios matemáticos por estudios experimentales y analizaron ecuaciones para construir una estructura teórica. El desarrollo de subcampos de las ciencias sociales se hizo muy cuantitativa en la metodología. Por el contrario, el carácter inter y transdisciplinar de la investigación científica en el comportamiento humano y los factores sociales y ambientales que la afectaban hizo que muchas de las ciencias naturales se interesaran en algunos aspectos de la metodología de las ciencias sociales. Ejemplos de una frontera borrosa incluyen disciplinas emergentes, como la medicina, sociobiología, neuropsicología, bioeconomía e historia y sociología de la ciencia. Cada vez más, la investigación cuantitativa y los métodos cualitativos están siendo integrados en el estudio de la acción humana y sus implicancias y consecuencias. En la primera mitad del , la estadística se convirtió en una disciplina independiente de matemática aplicada, por lo que los métodos estadísticos cobraron mayor confiabilidad. En el período contemporáneo, Karl Popper y Talcott Parsons influyeron en la promoción de las ciencias sociales. Los investigadores continúan en busca de un consenso unificado sobre qué metodología tendrá el poder y refinamiento de conectar una «gran teoría» propuesta con las múltiples teorías de medio rango que siguen proveyendo con considerable éxito marcos utilizables para bases de datos masivos y crecientes (véase consiliencia); sin embargo, en la actualidad, los distintos ámbitos de las ciencias sociales evolucionan en una variedad de formas, aumentando el conocimiento general de la sociedad. Las ciencias sociales en el futuro previsible estarán compuestas de diferentes áreas de investigación de campo. Históricamente, las ciencias sociales han recibido menor financiación que las ciencias naturales. Por ejemplo, se estima que solamente un 0,12 % de toda la financiación destinada a investigaciones relacionadas con el clima se invierte en la investigación social de la lucha contra el cambio climático. Algunos expertos han resaltado esto como una distribución ineficiente de recursos, pues el problema más urgente en el momento actual es pensar cómo modificar los comportamientos humanos para mitigar el cambio climático, mientras que nuestro conocimiento del cambio climático como fenómeno natural está ya muy establecido. No obstante, el nivel de atención y financiación que acaparan las ciencias sociales varía por países. Por ejemplo, el desarrollo de las ciencias sociales puede venir determinado por su interrelación con fenómenos políticos nacionales. En el caso de Brasil, la institucionalización de las ciencias sociales tuvo lugar en un contexto político en que el Estado debía afrontar el reto de afianzar su poder sobre el territorio, y el campo de las ciencias sociales se comprendió como un campo científico pero también como un campo político que debería contribuir a la construcción de la nueva nación. Esta necesidad se acentuó a partir de la revolución de 1932, tras la cual se fundó la USP —la universidad más grande de América Latina. A su vez, este desarrollo llevó a la creación de programas académicos y la constitución de asociaciones nacionales en los campos de la antropología, la sociología y la ciencia política. Características Las ciencias sociales presentan problemas metodológicos y epistemológicos propios, diferentes de los que aparecen en las ciencias naturales. Sin embargo, en ciencias sociales históricamente ha existido mayor discusión respecto a qué constituye genuinamente una ciencia social y qué no. De hecho, algunos estudios o disciplinas sociales, si bien involucran razonamientos y discusión racional, no se consideran propiamente ciencias sociales. Metodología Epistemología Las ciencias sociales buscan, desde sus inicios, llegar a una etapa verdaderamente científica, logrando cierta independencia respecto del método prevaleciente en la filosofía. En esta coexisten posturas opuestas respecto de algún aspecto de la realidad, mientras que en las ciencias exactas, ello no es posible. De ahí que las ramas humanistas de la ciencia deberían tratar de imitar, al menos en este aspecto, a las ciencias exactas. William James expresaba, a finales del : «Una serie de meros hechos, pequeños diálogos y altercados sobre opiniones; parcas clasificaciones y generalizaciones en un plano meramente descriptivo … pero ni una sola ley como la que nos proporciona la física; ni una sola proposición de la cual pueda deducirse casualmente consecuencia alguna … Esto no es ciencia, es solamente un proyecto de ciencia». Recordemos que toda ciencia debe establecer descripciones objetivas basadas en aspectos observables, y por tanto verificables, de la realidad. Las leyes que la han de constituir consistirán en vínculos causales existentes entre las variables intervinientes en la descripción. Además, el conocimiento deberá estar organizado en una forma axiomática, en forma similar a la ética establecida por Baruch de Spinoza. Tal tipo de organización no garantiza la veracidad de una descripción, sino que constituirá un requisito necesario para que las ciencias sociales adquieran el carácter científico que tanto se busca. Mario Bunge escribió: «De los investigadores científicos se espera que se guíen por el método científico, que se reduce a la siguiente sucesión de pasos: conocimiento previo, problema, candidato a la solución (hipótesis, diseño experimental o técnica), prueba, evaluación del candidato, revisión final de uno u otro candidato a la solución, examinando el procedimiento, el conocimiento previo e incluso el problema». «La verificación de las proposiciones consiste en someterlas a prueba para comprobar su coherencia y su verdad, la que a menudo resulta ser solo aproximada. Esa prueba puede ser conceptual, empírica o ambas cosas. Ningún elemento, excepto las convenciones y las fórmulas matemáticas, se considera exento de las pruebas empíricas. Tampoco hay ciencia alguna sin éstas, o ninguna en que estén ausentes la búsqueda y la utilización de pautas». «Según lo estimo, la descripción sumaria antes mencionada es válida para todas las ciencias, independientemente de las diferencias de objetos, técnicas especiales o grados de progreso. Se ajusta a las ciencias sociales como la sociología, lo mismo que a las ciencias biosociales como la psicología o a la antropología, y a las naturales como la biología. Si una disciplina no emplea el método científico o si no busca o utiliza regularidades, es protocientífica, no científica o pseudocientífica». En el centro de este debate sobre la capacidad de las ciencias sociales para emular las ciencias naturales está el concepto de «recursividad», que se refiere a la situación en que los científicos sociales se encuentran al intentar producir conocimiento acerca de un mundo del que ellos mismos son parte. Según Audrey Alejandro, «Como científicos sociales, la recursividad de nuestra condición alude al hecho de que somos a la vez sujetos (pues el discurso es el medio por el cual analizamos) y objetos de los discursos académicos que producimos (pues somos agantes sociales dentro del mundo que analizamos).» Desde esta premisa, identifica en la recursividad un reto fundamental en la producción de conocimiento que requiere de nosotros un ejercicio de reflexividad: Interdisciplinariedad En la actualidad, existen críticas a la creciente especialización y escasa intercomunicación entre las ciencias sociales. Esto iría en menoscabo de un análisis global de la sociedad (ver Wallerstein 1996). En la Encyclopedia of Sociology (Borgata y Mantgomery 2000), estudia este tema: La Sociología está poco relacionada con la Psicología social, con la Historia social, con la Geografía humana, con la Política pero debería estarlo más; si está más relacionada con la Antropología cultural, con la Ecología humana, con la Demografía, con el Urbanismo, con la Estadística y con la Filosofía. Dichas relaciones no son en su totalidad, sino en partes o sectores de cada disciplina. La Sociología es la asignatura más abierta a otras aportaciones del resto de las Ciencias sociales y esto lo deducen de las recopilaciones de índices de citaciones en artículos y libros. El proceso es que en las zonas fronterizas se van creando híbridos y esto es lo que les da coherencia a las necesarias interdependencias o prestaciones. La escasa intercomunicación entre disciplinas aún es más manifiesta entre científicos sociales de los diferentes países, que citan solamente a los de su entorno cultural, o su propio país, y principalmente a los clásicos, cuando de hecho los grupos latinoamericano, europeo y japonés, supera en bibliografía al grupo inglés americano. La transdisciplinariedad es la apuesta que emerge de esta insuficiencia de las disciplinas y lo interdisciplinar. Áreas y disciplinas En general, existe un acuerdo no tan razonable sobre qué disciplinas deben ser consideradas parte de las ciencias sociales y también de las ciencias naturales, aunque la división tradicional entre ambas es dudosa en el caso de algunas. Por ejemplo, si bien la lingüística había sido considerada casi universalmente una ciencia social, el enfoque moderno iniciado con la gramática generativa de Noam Chomsky sugiere que la lingüística no trata tanto de la interacción social sino que debe ser vista como una parte de la psicología o la biología evolutiva, ya que en el funcionamiento de las lenguas y en su evolución temporal la conciencia de los hablantes o sus representaciones psicológicas no parecen desempeñar ningún papel. Por eso mismo, algunos autores han llegado a considerar que las lenguas son un objeto natural que se genera espontáneamente y no por la intención deliberada de los seres humanos. Antropología Ciencia política Demografía Economía Geografía Historia Lingüística Psicología Semiología Sociología Disciplinas conectadas con las ciencias sociales Existe un conjunto de Tecnologías sociales, a veces llamadas impropiamente «ciencias sociales aplicadas», que hacen un uso importante de desarrollos de las ciencias sociales propiamente dichas y de otras tecnologías sociales, para tratar de ordenar o mejorar procesos organizativos o enseñanza. Estas disciplinas científicas utilizan el conocimiento de las ciencias sociales, y a su vez desarrollan conocimiento científico propio utilizando para esto el método científico; es decir su conocimiento es científico, desarrollan conocimiento científico, pero no es ciencia ya que, el fin que persiguen es aplicar el conocimiento a la realidad por medio de la Técnica para transformarla y no obtener conocimiento en sí mismo por el mero hecho de conocer la realidad: Administración Contabilidad Comunicación Derecho Diseño Economía social y finanzas éticas Educación Interacción persona-computadora Pedagogía Psiquiatría Relaciones Internacionales Traductología Urbanismo La relación de estas disciplinas con las ciencias sociales es similar a la que existe entre la ingeniería o Medicina y las ciencias naturales. Si bien la ingeniería hace uso de métodos objetivos y puede servirse de experimentación guiada por el método científico, su objetivo primordial no es adquirir nuevos conocimientos o investigar problemas científicos, sino encontrar la mejor manera de aprovechar principios y conocimientos científicos para resolver problemas prácticos. Disciplinas técnicas Estas disciplinas son eminentemente técnicas, pueden ser científicas, es decir basadas en ciencias y tecnologías, sobre todo esta última aplicada a distintos ámbitos, situaciones y objetos de estudio. Arquitectura Biblioteconomía Criminología Didáctica Diseño gráfico Diseño industrial Ergonomía Filología Periodismo Publicidad Relaciones Públicas Trabajo social Educación y grados La mayoría de universidades ofrecen grados en campos de las ciencias sociales. La Licenciatura en Ciencias Sociales es un grado dirigido a las ciencias sociales en particular. Es a menudo más flexible y profundo que otros grados que incluyen materias de ciencias sociales. En los Estados Unidos, una universidad puede ofrecer a un estudiante que estudia un campo de las ciencias sociales un grado de Bachelor of Arts, particularmente si el campo está entre uno de las tradicionales artes liberales como la historia, o un BSc: grado de Bachelor of Science como aquellos proporcionados por la London School of Economics, ya que las ciencias sociales constituyen una de las dos principales ramas de la ciencia (siendo la otra las ciencias naturales). Además, algunas instituciones tienen grados para una ciencia social particular, como el grado de Bachelor of Economics, aunque estos grados especializados son relativamente raros en los Estados Unidos. Véase también Notas y referencias Bibliografía Borgatta, Edgar F., Alexis N. Jara y Rhonda J. V. Montgomery. (1992) 2.ª edición 2000. Encyclopedia of Sociology. 5 volúmenes. Macmillan. ISBN 0-02-864853-6 Wallerstein, Immanuel. 1996. Abrir las Ciencias Sociales. Siglo XXI, México. ISBN 968-23-2012-7. Diccionario Crítico de Ciencias Sociales. Universidad de Madrid Enciclopedia Internacional de Ciencias Sociales. Editorial Aguilar. Sources of information in the Social Sciences. Web: Ciencias sociales Enlaces externos Ciencias sociales Ciencias históricas
403_0
Cartografía
La cartografía (del griego χάρτης, chartēs = mapa y γραφειν, graphein = escrito) es la ciencia aplicada que se encarga de reunir, realizar y analizar medidas y datos de regiones de la Tierra, para representarlas gráficamente con diferentes dimensiones lineales a escala reducida. Por extensión, también se denomina cartografía a un conjunto de documentos territoriales referidos a un ámbito concreto de estudio. La Asociación Cartográfica Internacional define la cartografía como la disciplina relacionada con la concepción, producción, diseminación y estudio de mapas. Fundamentos Al ser la Tierra esférica, o más bien geoide, lo cual es una derivación del término "esférico", ha de valerse de un sistema de proyecciones para pasar de la esfera al plano. El problema es aún mayor, porque la forma de la Tierra no es perfectamente esférica; su forma se achata más en los polos que en la zona ecuatorial. Por eso se le considera geoide. Además de representar los contornos de las cosas, las superficies y los ángulos, la cartografía se ocupa de representar la información que aparece sobre el mapa, según se considere qué es relevante y qué no. Esto, normalmente, depende de lo que se quiera representar en el mapa y de su escala. Actualmente estas representaciones cartográficas se pueden realizar con programas informáticos llamados SIG, con georreferencia. La cartografía en la época de la Web 2.0 se ha extendido hasta Internet, propiciando el surgimiento del contenido creado por el usuario. Este término implica que existan mapas creados en forma tradiciona, mediante contribuciones de cartógrafos profesionales, o con información aportada por el público general. En la actualidad son numerosos los portales que permiten visualizar y consultar mapas de todo el mundo. Historia El mapa conocido más antiguo es una cuestión polémica, porque la definición de mapa no es unívoca y porque para la creación de mapas se utilizaron diversos materiales. Existe una pintura mural, que puede representar la antigua ciudad de Çatalhöyük, en Anatolia (conocida previamente como Huyuk o Çatal Hüyük), datada en el VII milenio a. C. Otros mapas conocidos del mundo antiguo incluyen a la civilización minoica: la «Casa del almirante» es una pintura mural datada en 1.600 a. C., en la que se observa una comunidad costera en perspectiva oblicua. También hay un mapa grabado de la Sagrada Ciudad de Babilonia de Nippur, del período Kassita, ( - ) En la antigua Grecia y el Imperio romano se crearon mapas, como el de Anaximandro en el . o el mapamundi de Claudio Ptolomeo, que es un mapa del mundo conocido (Ecúmene) por la sociedad occidental en el . En el , los eruditos árabes tradujeron los trabajos de los geógrafos griegos al árabe. En la antigua China, los códigos geográficos datan del . Los mapas chinos más viejos son del Estado de Qin y se datan en el , durante los Reinos Combatientes. En el libro del Xin Yi Xiang Fa Yao, publicado en 1092 por el científico chino Su Song, hay una carta astronómica con una proyección cilíndrica similar a la actual y, al parecer, inventado por separado, a la Proyección de Mercator. Aunque este método de cálculo parece haber existido en China incluso antes de esta publicación y, científicamente, el significado más grande de las Cartas astronómicas de Su Song, es que representan los mapas impresos existentes más antiguos conocidos. Los primeros signos de la cartografía india incluyen pinturas legendarias; mapas de localizaciones descritas en epopeyas hindúes como el Rāmāyana. Las tradiciones cartográficas hindúes también situaron la localización de la Estrella Polar, así como otras constelaciones. Mapamundi es el término general usado para describir a los mapas europeos del Mundo Medieval. Aproximadamente mil cien mapamundis sobrevivieron a la Edad Media. De estos novecientos son ilustraciones manuscritas y el resto existe como documentos independientes (Woodward, P. 286). El geógrafo árabe Muhammad al-Idrisi elaboró su mapa, la Tabula Rogeriana, en 1154 incorporando el África conocida, el océano Índico y el Extremo Oriente conocido, compilando la información de los comerciantes y exploradores árabes y la heredada de los geógrafos clásicos para crear el mapa más exacto del mundo en su tiempo y durante los siguientes tres siglos. En la Era de los descubrimientos, del al , los cartógrafos europeos copiaron mapas antiguos (algunos datados muchos siglos atrás) y dibujaron sus propios mapas basados en las observaciones de los exploradores aunque con nuevas técnicas. La invención de la brújula, el telescopio y el desarrollo de la agrimensura les dieron mayor exactitud. En 1492, Martin Behaim, un cartógrafo alemán, hizo el primer globo terráqueo, el Erdapfel. Johannes Werner estudió y perfeccionó los sistemas de proyección de los mapas, desarrollando la proyección cordiforme. En 1507, Martin Waldseemüller elaboró un globo del mundo y un gran mapamundi mural distribuido en 12 hojas (Universalis Cosmographia), siendo el primer mapa en aplicar el nombre de «América» a las tierras recién descubiertas por los europeos y el primero en presentar este continente separado del asiático. El cartógrafo portugués, Diego Ribero, fue el autor del primer planisferio conocido con un Ecuador terrestre graduado (1527). El cartógrafo italiano Bautista Agnese elaboró por lo menos 71 atlas manuscritos de las cartas marinas. Debido a las dificultades inherentes en la cartografía, fabricantes de mapas copiaron con frecuencia el material de trabajos anteriores sin mencionar al cartógrafo original. Por ejemplo, uno de los mapas antiguos más famosos de Norteamérica, vulgarmente conocido como el “Mapa Castor”, publicado en 1715 de Herman Moll, es una reproducción exacta de un trabajo en 1698 de Nicolás De Fer. De Fer había copiado a su vez las imágenes impresas en libros de Louis Hennepin, publicados en 1697, y François Du Creux, en 1664. Por los años 1700, los fabricantes de mapas comenzaron a darle crédito al autor original imprimiendo la frase “Según [el cartógrafo original]”. Cartografía precolombina En México, la cartografía tiene sus propias características. Si bien se inscribe en el contexto del pensamiento cartográfico de occidente su origen se encuentra en las formas de expresión empleadas por los antiguos pobladores de Mesoamérica para representar el conocimiento geográfico. Una lectura de estas menciones ha permitido a los estudiosos saber que, efectivamente, los indígenas mesoamericanos realizaban mapas con una gran destreza técnica y profesionalidad, y que eran relativamente habituales en la Mesoamérica precolombina. La mayoría de los mapas indígenas que se han conservado datan del , después de la llegada de los europeos, y están influidos por la cartografía de los mismos. De hecho, como ya hemos comentado, las referencias que tenemos de los mapas hechos por los nativos mexicanos son descripciones hechas por los españoles, es decir, consideraciones externas, realizadas desde el punto de vista europeo. No podemos saber con certeza cómo eran los mapas precolombinos, ni siquiera podemos estar seguros de la manera que tenían los nativos de entender los mapas. A partir de todos estos factores (entre otros), los estudiosos han logrado identificar cuatro categorías de mapas mesoamericanos, dependiendo de su función y representación: Mapas que narran acontecimientos históricos. Mapas que representan propiedades, planos de ciudades, y posiblemente itinerarios. Mapas cosmográficos. Mapas celestes, mostrando las estrellas y constelaciones. Cambios tecnológicos Las cartas planas Son las que se construyen suponiendo que la superficie de la Tierra es plana, con lo que el rumbo y la distancia van acordes a ello. Se usaron mucho en el Mediterráneo hasta los inicios del . Los cambios en la producción de mapas corren paralelos a los cambios producidos en la tecnología. El salto más grande se produjo a partir de la Edad Media cuando se inventan instrumentos como el cuadrante y la brújula, que permiten medir los ángulos respecto a la estrella polar y el Sol. Estos instrumentos, permitieron determinar la latitud para finalmente plasmarla en los mapas. En las llamadas cartas planas, las latitudes observadas y las direcciones magnéticas se representan directamente en el mapa, con una escala constante, como si la Tierra fuese plana. Evolución posterior En la cartografía, la tecnología ha cambiado continuamente para resolver las demandas de nuevas generaciones de fabricantes de mapas y de lectores de mapas. Los primeros mapas fueron elaborados manualmente con plumas sobre pergaminos; por lo tanto, variaban en calidad y su distribución fue muy limitada. La introducción de dispositivos magnéticos, tales como la brújula permitían la creación de mapas de diferentes escalas más exactos y más fáciles de almacenar y manipular. Los avances en dispositivos mecánicos tales como la imprenta, el cuadrante y el nonio, utilizados para que la producción en masa de mapas y la capacidad de hacer reproducciones más exactas de datos. La tecnología óptica, como el telescopio, el sextante y otros dispositivos, permitían examinar de forma más exacta la Tierra y aumentaron la capacidad de los creadores de mapas y navegantes para encontrar su latitud midiendo ángulos con la Estrella Polar de noche o al mediodía. Avances en tecnología fotoquímica, tales como los procesos litógráficos y fotomecánicos, han tenido en cuenta la creación de mapas que tienen detalles finos, no se tuercen en su forma y resistentes a la humedad y el desgaste. Esto también eliminó la necesidad del grabado, que en un futuro acortó el tiempo que toma para hacer y para reproducir mapas. Los avances en tecnología electrónica en el condujeron a otra revolución en la cartografía. La disponibilidad de los avances en computación, de hardware, junto a sus periféricos, por ejemplo monitores, los trazadores, las impresoras, los escáneres (remotos y de documentos) y los trazadores estéreos analíticos, junto con los programas de computadora para la visualización, el proceso de imagen, el análisis espacial, y la gerencia de la base de datos, han contribuido a lo que se ha denominado neogeografía, popularizando su conocimiento y ampliado la fabricación de mapas. La capacidad espaciales para localizar variables sobre mapas existentes, junto a la creación de nuevas aplicaciones para la gestión de mapas, han posibilitado el surgimiento de nuevas industrias de exploración de estos potenciales. El uso de técnicas actuales como la fotografía por satélite, ha facilitado, en los últimos tiempos, la elaboración de mapas cartográficos de forma más precisa. Esto tiene unas consecuencias inmediatas para las demás ciencias y estudios que dependen de la cartografía para su desarrollo. Además, en la actualidad podemos desarrollar mapas en 3D usando softwares destinados a esto, lo que lleva un paso más allá la visualización de estos mapas. Actualmente la mayoría de los mapas de calidad comercial se hacen usando software, que se agrupa en tres tipos principales: Diseño asistido por ordenador (DAO). Sistema de Información Geográfica (SIG). Software de ilustración especializada. La información espacial se puede almacenar en una base de datos, de la que puede ser extraída bajo demanda. Estas herramientas conducen cada vez más a mapas dinámicos y mapas interactivos, pudiendo ser manipulados digitalmente. Tipos de mapas General y cartografía temática De acuerdo a mapas básicos, el campo de la cartografía, se puede dividir o separar en dos categorías generales: la Cartografía general y la Cartografía temática. La Cartografía general implica esos mapas que se construyen para una audiencia general y contengan así una variedad de características. Los mapas generales exhiben muchas referencias y los sistemas de localización se producen a menudo en series. Por ejemplo, los mapas topográficos de escala 1:24,000 de la United States Geological Survey (USGS) es un estándar con respecto a los mapas canadienses de escala de 1:50,000. El gobierno de Reino Unido produce los clásicos "Ordnance Survey" mapas de 1:63,360 (1 pulgada por milla) del Reino Unido entero junto con una gama de mapas más grandes y escala muy pequeña correlacionados a gran detalle. La Cartografía temática implica los mapas de temas geográficos específicos, orientados hacia las audiencias específicas. Un par de ejemplos puede ser el mapa del punto demostrar la producción del maíz en Indiana o un mapa sombreado del área de los condados de Ohio, dividido en clases numéricas. Mientras que el volumen de datos geográficos ha evolucionado enormemente durante el siglo pasado, la cartografía temática ha llegado a ser cada vez más útil y necesaria para interpretar datos espaciales, culturales y sociales. Por ejemplo las redes sociales se mapean georeferencialmente, también se hacen mapas que muestren distancia entre personas (en número de vínculos o pasos que los separan). La línea del tiempo también puede considerarse un mapa o carta. A partir de su uso en la navegación se han perfeccionado técnicas que son recuperadas para guiar la navegación web. En sociología y comunicación, el oficio del cartógrafo también es citado como estrategia para sostener el rumbo en un mundo fluido. El mapa del deporte de orientación combina la cartografía general y temática, diseñada para una comunidad de usuario muy específica. El elemento temático más prominente está sombreado, eso indica grados de dificultad del recorrido debido a la vegetación. La vegetación en sí mismo no es identificada, clasificándose simplemente por la dificultad (“lucha”) que él presenta. Características de la geometrización La geometrización atravesó gran parte de la cultura visual de la ciencias modernas, afecto a las imágenes propiamente dichas y también a los modos de ver. El hombre creó métodos, que hacían que fenómenos que no podían ser conocidos, sino por medio del sentido del tacto, del gusto o del olfato, ahora podían ser visualizados, esa racionalización de la mirada reposaba en las producciones de los clásicos de la modernidad, y los mapas de la modernidad no resultaban ajenos a esa mirada, representando isomorfismos y proporcionalidad, inventando una nueva geometría de la representaciones geográficas. Esa proporcionalidad es la que busca definir a la miniatura geográfica. El filósofo francés Gastón Bachelard sostenía que, las miniaturas son objetos faltos de provistos de una objetividad psicológica real, y que miniaturizar el mundo, implicaba poseerlo. Topográfico y topológico El mapa topográfico se trata sobre todo de la descripción topográfica de un lugar (zona provincial, región, un país o el mundo), incluyendo (especialmente en el ) el uso de líneas de isolíneas para demostrar la altimetría (hipsometría) o batimetría del relieve. El relieve terrestre en la cartografía se puede demostrar en una variedad de maneras. En estos mapas se utilizan colores, símbolos y diferentes tipos de trazos para diferentes tipos de paisajes y relieves como montañas, valles, llanuras, lagos, depresiones del terreno y muchas características más. Además, se suelen agregar también diferentes tipos de señalizaciones que refieren a construcciones hechas por el hombre, como por ejemplo: vías de transporte, zonas de producción energética o diferentes tipos de cultivos. El mapa topológico es un tipo muy general de mapa o plano. Desatiende a menudo la escala y el detalle en el interés de la claridad de la información emparentada. El mapa del Metro de Caracas es un ejemplo. Sin embargo el mapa utilizado preserva poco de realidad. Varía la escala constantemente y precipitadamente, y las direcciones de los contornos casuales. Los únicos rasgos importantes del mapa son la ubicación fácil de las estaciones y travesías a lo largo de pistas y si una estación o una travesía está del norte o sur del Río Guaire. Satisfacen todos los deseos típicos que un pasajero requiere informarse, satisfaciendo el propósito cartográfico. El poder de la cartografía La cartografía determina el poder de cada Estado. La ubicación, los tamaños y la forma en que cada Estado es representado, le otorga un poder que, aunque no explícito, se puede inducir en cada una de sus representaciones. Mercator Este es una de las representaciones cartográficas más importantes de la superficie terrestre, y fue muy importante para la navegación en el , ayudó, gracias a los ejes que proporcionaron los meridianos y paralelos, a que los barcos pudieran seguir sus rutas con mayor facilidad. Pero también podemos observar que en el centro de esa representación se encuentra el continente europeo. Esta representación le otorgó a este continente un mayor poder, frente a otros. No solo por el tamaño real de sus territorios, que se ven más grandes de lo que son en realidad, sino también la posición en la que se representa (el centro). "Por esta razón, la cartografía se presenta como un mecanismo que salva las distancias, un instrumento que sirve al monarca para enfrentarse al espacio y al tiempo, y que, por tanto, había que producir de la manera más fidedigna posible." Véase también Agencia cartográfica nacional Geodesia Proyección cartográfica Mapamundis antiguos Historia de la cartografía Referencias Bibliografía Enlaces externos Cartesia Artículos, noticias y recursos del campo de la Geomática y la Cartografía. Ciencias históricas
406_0
Ciencias aplicadas
Las ciencias aplicadas utilizan el conocimiento científico de una o varias ramas de la ciencia para resolver problemas prácticos. Los campos de la ingeniería, por ejemplo, se acercan a lo que es la ciencia aplicada. Estas áreas prácticas del saber son vitales para el desarrollo de la tecnología. Su utilización en campos industriales se refiere generalmente desarrollo y uso. Es decir la ciencia aplicada es un cuerpo de conocimiento en el que la investigación y el descubrimiento tienen su orientación directa a la práctica; esto son las ciencias que proporcionan el desarrollo de nuevas tecnologías, a saber: los algoritmos de acción para obtener el producto deseado. Aplicada es la disciplina científica que aplica el conocimiento científico existente para desarrollar sistemas más prácticos aplicados, como la tecnología o la invención. Su concepto opuesto es el de ciencia fundamental, la investigación científica que se realiza para aumentar el conocimiento, sin fin práctico inmediato. Las ciencias aplicadas son orientadas a la práctica del conocimiento obtenido en las ciencias fundamentales; estos conocimientos sirven directamente a las necesidades de la sociedad. Como resultado, proporciona una amplia gama de funcionamiento de las ciencias aplicadas. Debido al desarrollo de las disciplinas de las ciencias naturales en la ciencia fundamental, surge una colección de nuevos datos e información que permite ver, predecir y en algunos casos explicar y entender los fenómenos en el mundo, en particular, la ciencia aplicada puede aplicar la ciencia formal, como las estadísticas, las matemáticas y la medicina, lo que condujo a la formación de tales disciplinas como estadística aplicada, matemáticas aplicadas, medicina aplicada, etc. Junto con esto, el curso de formación y desarrollo de áreas relacionadas de la ciencia aplicada fue históricamente determinado, como, por ejemplo, psicología aplicada, ética aplicada, biomecánica aplicada, hasta la educación preescolar aplicada. Diferencia con las ciencias fundamentales Existe una división tradicional de las ciencias en ciencias fundamentales y ciencias aplicadas. Las ciencias fundamentales investigan las leyes fundamentales que rigen el comportamiento y la interacción de las estructuras básicas de la naturaleza. Las investigaciones de las ciencias fundamentales se encuentran al borde entre lo conocido y lo inesperado, y conducen al descubrimiento científico. Por contraste, las ciencias aplicadas aplican los resultados de las ciencias fundamentales a la solución de problemas sociales y prácticos. El propósito de la investigación fundamental es el conocimiento, es decir la representación objetiva y racional de la realidad, mientras que el propósito de la investigación aplicada es el conocimiento instrumental efectivo sobre un fragmento de realidad, diseñado para resolver un problema práctico específico. Para la investigación fundamental la verdad del conocimiento sobre el mundo es el valor más alto; para la investigación aplicada el valor más alto es la efectividad tecnológica de la información sobre el mundo que no siempre coincide con su verdad, en el caso de la ciencia fundamental las perspectivas y el progreso de la investigación están determinados principalmente por la tarea de identificar e introducir racionalmente nuevas características del mundo, aún desconocidas. En la ciencia aplicada el curso de la investigación está determinado por la necesidad de resolver problemas tecnológicos específicos, por esta razón la novedad del conocimiento sobre el mundo en sí mismo aparece como un subproducto de la búsqueda de estas soluciones. El conocimiento obtenido en el marco de la investigación aplicada se fija, en primer lugar, como un medio para resolver un problema práctico local; el conocimiento a menudo se presenta en formas que no implican un uso cognitivo directo adicional, pero que tiene una aplicación práctica directa, por ejemplo, instrucción, metodología, receta tecnológica, etc. Ejemplos de ciencias aplicadas Ingeniería Medicina Grupos de ciencias aplicadas Ciencias de la salud Ciencias de la comunicación Véase también Ciencias formales Ciencias naturales Ciencias sociales Ciencias humanas Referencias Disciplinas aplicadas
407_0
Clasificación
Clasificación puede referirse a: Bibliografía Clasificación bibliográfica, la clasificación de libros y documentos. Sistemas de clasificación Clasificación Decimal Universal, la clasificación universal en bibliotecas. Clasificación Decimal Dewey, la clasificación decimal usual en bibliotecas anglófonas. Clasificación facetada. Clasificación Unesco o nomenclatura Unesco (Nomenclatura Internacional de la Unesco para los Campos de Ciencia y Tecnología); la clasificación para ordenar trabajos de investigación y tesis doctorales. Cine y televisión Clasificación por edades (cine). Ciencias de la salud Farmacología Clasificación de Derivaciones Fármaco-terapéuticas, la clasificación de derivaciones de pacientes. Código ATC. General Clasificación Internacional de Atención Primaria, la clasificación de problemas de salud. Clasificación Internacional de Enfermedades, la clasificación de diagnósticos médicos. Medicina del sueño Clasificación internacional de los trastornos del sueño, la clasificación de los trastornos y dificultades para dormir. Salud mental Manual diagnóstico y estadístico de los trastornos mentales, la clasificación de enfermedades mentales. Deporte Clasificación mundial de la FIFA, la clasificación de fútbol por países. Economía Clasificación Internacional Industrial Uniforme, la clasificación mundial de actividades económicas. Clasificación Internacional Uniforme de Ocupaciones, una estructura de clasificación de la Organización Internacional del Trabajo para organizar la información de trabajo y empleo. Clasificación de automóviles. Filosofía Clasificación lógica, la clasificación de los individuos o de las cosas por medio de sus atributos o cualidades, según el criterio de una propiedad común. Geología Climas Clasificación climática de Köppen. Huracanes Escala de huracanes de Saffir-Simpson. Minerales Clasificación de Strunz, la clasificación de los minerales según su composición química. Sismos Escala sismológica de Mercalli (según las consecuencias del movimiento telúrico). Escala sismológica de Richter (según la energía liberada). Matemáticas Clasificación de discontinuidades (de funciones no continuas). Clasificación estadística. Química Tabla periódica de los elementos, la clasificación periódica de elementos químicos. Enlaces externos
408_0
Clase
Clase puede referirse a: En biología, la clase es un grupo taxonómico que comprende varios órdenes de plantas o animales con muchos caracteres comunes. En sociología, la clase es un tipo de estratificación social basada en criterios educativos o económicos. Desde el punto de vista económico son comunes las expresiones «clase alta», «clase media» y «clase baja», alusivas a los tres bloques en los que se suele dividir a la población según su riqueza. En informática, se llama clase a la declaración o abstracción de un objeto cuando se programa según el paradigma de orientación a objetos. En filosofía, una clase natural es un conjunto considerado ontológicamente real; es decir, no resultante de una agrupación artificial de elementos elaborada por uno o varios sujetos humanos en virtud de criterios subjetivos. En lógica es una propiedad que puede reunir en una unidad o definir a una colección de posibles elementos o individuos. La propiedad lógica, como concepto es independiente de los individuos, aunque pueda ser un predicado de ellos; por lo que puede ser utilizada como concepto universal realizando la función de sujeto lógico de una proposición en un enunciado como oración gramatical de una lengua. En la teoría de la complejidad computacional, una clase de complejidad es un conjunto de problemas de decisión de complejidad relacionada. En matemáticas: La clase característica es uno de los conceptos geométricos unificadores en topología algebraica, geometría diferencial y geometría algebraica. El concepto de clase en teoría de conjuntos. La clase de diferenciabilidad de una aplicación (entre dos variedades diferenciables). Una clase de equivalencia es un subconjunto de elementos relacionados con uno dado según una relación de equivalencia dada. Una clase de isomorfismo es una colección de objetos matemáticos isomorfos con cierto objeto matemático. En educación, es aula o lugar donde se reúnen los alumnos y el profesor. En este apartado, habría que añadir que el uso de las nuevas tecnologías ha cambiado el concepto de aula como lugar de reunión físico para transformarlo en un lugar virtual con la llegada del e-learning. En educación, una clase o lección son las enseñanzas que el profesor imparte a los alumnos. En el escalafón militar, se llama clase a los elementos ascendidos a los grados menores de la jerarquía, cabos y sargentos, con funciones de mando directo sobre el personal sin grado (tropa) pero sin funciones ni autoridad administrativas. En el ámbito naval, la clase es un grupo de buques de un diseño similar. En automoción, los distintos modelos de automóviles de la marca alemana Mercedes-Benz se denominan Clases, acompañadas por entre una y tres letras. Enlaces externos
409_0
Clasificación Unesco
La clasificación Unesco (Nomenclatura Internacional de la Unesco para los campos de Ciencia y Tecnología), creada por dicho organismo, es un sistema de clasificación del conocimiento ampliamente usado en la ordenación de proyectos de investigación y de las tesis doctorales. Los apartados se diferencian por niveles según el nivel de detalle en campos, disciplinas y subdisciplinas, que son codificados con dos, cuatro y seis dígitos respectivamente. Campos (dos dígitos): son los apartados más generales. Cada uno comprende varias disciplinas distintas entre sí, pero con características comunes. Disciplinas (cuatro dígitos): suponen una descripción general de grupos de especialidades. Subdisciplinas (seis dígitos): representan las actividades que se realizan dentro de una disciplina. En el nivel de dos dígitos se clasifican los siguientes campos: Véase también Clasificación Internacional Normalizada de la Educación Clasificación Unesco de 4 dígitos Clasificación Unesco de 6 dígitos Referencias Enlaces externos 6: dígitos: Versión SKOS de la Clasificación/Nomenclatura Unesco (en Español, Inglés y Francés) Documento original (PDF en inglés) para más información revise la Ficha Técnica 4 dígitos: Clasificación Unesco de las áreas de ciencia y tecnología. Ministerio de Ciencia e Innovación. España. 6 dígitos: Clasificación Unesco. Nomenclatura para los campos de las ciencias y las tecnologías. Universidad del País Vasco, Departamento de Economía Aplicada III (9 de enero de 2007). España.
412_0
Clasificación Unesco de 6 dígitos
La navegación por Wikipedia usando la clasificación Unesco de 6 dígitos es parcial. Puesto que en Wikipedia se categorizan los artículos teniendo en cuenta diversos factores, algunas categorías no pueden incluirse dentro de la clasificación Unesco, y viceversa. Nota: Los enlaces de esta página llevan a la clasificación en seis dígitos de la Unesco, y no al contenido en sí de la materia. 11 Lógica 12 Matemáticas 21 Astronomía y Astrofísica 22 Física 23 Química 24 Ciencias de la Vida 25 Ciencias de la Tierra y el Espacio 31 Ciencias Agronómicas 32 Ciencias Médicas 33 Ciencias de la tecnología 51 Antropología 52 Demografía 53 Ciencias de la economía 54 Geografía 55 Historia 56 Derecho 57 Lingüística 58 Pedagogía 59 Ciencias políticas 61 Psicología 62 Ciencias de las artes y las letras 63 Sociología 71 Ética 72 Filosofía Véase también Clasificación Unesco Clasificación Unesco 4 dígitos
419_0
Climatología
La climatología es la ciencia o rama de la geografía y de las ciencias de la Tierra que se ocupa del estudio de los fenómenos meteorológicos y sus variaciones a lo largo del tiempo cronológico. Ha sido un asunto del que se ha ocupado la geografía desde sus comienzos: Claudio Ptolomeo, en su libro Geographia, dedica un tercio de este a la variación zonal de los climas en la superficie terrestre. Aunque utiliza los mismos parámetros que la meteorología (ciencia que estudia el tiempo atmosférico), su objetivo es diferente, ya que no pretende hacer previsiones inmediatas, sino estudiar las características climáticas a largo plazo. De las condiciones atmosféricas dependen muchas actividades humanas, desde la agricultura hasta un simple paseo por el campo. Por eso se ha hecho un esfuerzo ingente por predecir el tiempo tanto a corto como a medio plazo. Cuando una comarca, ciudad, ladera, etc. tiene un clima diferenciado del clima zonal se dice que es un 'topoclima'; este se caracteriza por estar mayormente afectado por el estado local del resto de los factores geográficos (geomorfología, hidrografía, etc.). Además, se llama microclima al que no tiene divisiones inferiores, como el que hay en una habitación, debajo de un árbol o en una determinada esquina de una calle. Determina de manera fundamental, las características principales de la arquitectura bioclimática. El clima tiende a ser regular en períodos muy largos, incluso geológicos, determinando de gran manera la evolución del ciclo geográfico de una región, lo que permite el desarrollo de una determinada vegetación y un tipo de suelos determinados por la latitud, es decir, suelos zonales. Pero, en períodos geológicos, el clima también cambia de forma natural, los tipos de tiempo se modifican y se pasa de un clima a otro en la misma zona. El tiempo y el clima tienen lugar en la atmósfera. Para definir un clima es necesaria la observación durante un lapso largo (la Organización Meteorológica Mundial estableció periodos mínimos de treinta años, pero hay autores que creen que deben ser más largos, de cien o superiores, para registrar las variaciones de forma suficiente). Las observaciones de temperatura, presión atmosférica, vientos, humedad y precipitaciones, así como el tipo o tipos de tiempo que se recogen en las estaciones meteorológicas. Con estos datos se elaboran tablas de valores medios que se trasladan a climogramas, representaciones gráficas de la variación anual de temperatura y precipitaciones, como variables. Historia Los griegos iniciaron el estudio formal del clima; de hecho, la palabra clima deriva de la palabra griega klima, que significa "pendiente", refiriéndose a la pendiente o inclinación del eje de la Tierra. Podría decirse que el texto clásico más influyente sobre el clima fue Sobre los aires, el agua y los lugares escrito por Hipócrates alrededor del año 400 a. C. Esta obra comentaba el efecto del clima en la salud humana y las diferencias culturales entre Asia y Europa. Esta idea de que el clima controla qué países sobresalen en función de su clima, o determinismo climático, siguió siendo influyente a lo largo de la historia. El científico chino Shen Kuo (1031-1095) dedujo que los climas cambiaban de forma natural a lo largo de un enorme lapso de tiempo, tras observar bambú petrificado encontrado bajo tierra cerca de Yanzhou (actual Yan'an, provincia de Shaanxi), una zona de clima seco inadecuada para el crecimiento del bambú. La invención del termómetro y del barómetro durante la Revolución Científica permitió el registro sistemático, que comenzó ya en 1640-1642 en Inglaterra. Entre los primeros investigadores del clima se encuentran Edmund Halley, que publicó un mapa de los vientos alisios en 1686 tras un viaje al hemisferio sur. Benjamin Franklin (1706-1790) trazó por primera vez el curso de la Corriente del Golfo para utilizarlo en el envío de correo desde los Estados Unidos a Europa. Francis Galton (1822-1911) inventó el término anticiclón. Helmut Landsberg (1906-1985) fomentó el uso del análisis estadístico en la climatología, lo que llevó a su evolución hacia una ciencia física. A principios del , la climatología se centraba principalmente en la descripción de los climas regionales. Esta climatología descriptiva era principalmente una ciencia aplicada, que proporcionaba a los agricultores y a otras personas interesadas estadísticas sobre cuál era el tiempo normal y qué posibilidades había de que se produjeran fenómenos extremos. Para ello, los climatólogos tuvieron que definir una normalidad climática, o una media del tiempo y de los extremos climáticos a lo largo de un periodo que suele ser de 30 años. A mediados del , muchos supuestos de la meteorología y la climatología consideraban que el clima era más o menos constante. Aunque los científicos conocían los cambios climáticos del pasado, como el edad de hielo, el concepto de clima inmutable era útil para el desarrollo de una teoría general de lo que determina el clima. Esto empezó a cambiar en las décadas siguientes, y aunque la historia de la ciencia del cambio climático empezó antes, el cambio climático no se convirtió en uno de los temas de estudio más importantes para los climatólogos hasta la década de los setenta. Métodos para estimar el clima El estudio de los climas contemporáneos incorpora datos meteorológicos acumulados a lo largo de muchos años, como registros de precipitaciones, temperatura y composición atmosférica. El conocimiento de la atmósfera y su dinámica también se plasma en modelos, ya sea estadístico o matemático, que ayudan a integrar diferentes observaciones y a comprobar cómo encajan. La modelización se utiliza para comprender los climas pasados, presentes y futuros. La investigación sobre el clima se ve dificultada por la gran escala, los largos periodos de tiempo y los complejos procesos que lo rigen. El clima se rige por leyes físicas que pueden expresarse como ecuaciones diferenciales. Estas ecuaciones están acopladas y no son lineales, por lo que las soluciones aproximadas se obtienen utilizando métodos numéricos para crear modelos climáticos globales. El clima se modela a veces como un proceso estocástico, pero esto se acepta generalmente como una aproximación a procesos que, de otro modo, son demasiado complicados de analizar. Datos climáticos La recopilación de registros largos de variables climáticas es esencial para el estudio del clima. La climatología se ocupa de los datos agregados que ha recogido la meteorología. Los científicos utilizan observaciones directas e indirectas del clima, desde Satélites de observación de la Tierra e instrumentación científica como una red global de termómetros, hasta hielo prehistórico extraído de glaciares. Como la tecnología de medición cambia con el tiempo, los registros de datos no se pueden comparar directamente. Como las ciudades suelen ser más cálidas que las zonas circundantes, la urbanización ha hecho necesario corregir constantemente los datos por este efecto de isla de calor urbana. Modelos Los modelos climáticos utilizan métodos cuantitativos para simular las interacciones de la atmósfera, los océanos, la superficie terrestre y el hielo. Se utilizan para diversos fines, desde el estudio de la dinámica del sistema meteorológico y climático hasta las proyecciones del clima futuro. Todos los modelos climáticos equilibran, o casi, la energía entrante en forma de radiación electromagnética de onda corta (incluida la visible) hacia la Tierra con la energía saliente en forma de radiación electromagnética de onda larga (infrarroja) desde la Tierra. Cualquier desequilibrio provoca un cambio en la temperatura media de la Tierra. La mayoría de los modelos climáticos incluyen los efectos radiativos de los gases de efecto invernadero, como el dióxido de carbono. Estos modelos predicen una tendencia al alza en las temperaturas en la superficie, así como un aumento más rápido de la temperatura en las latitudes más altas. Los modelos pueden ser desde relativamente simples hasta complejos: Un modelo simple de transferencia de calor radiante que trata la tierra como un solo punto y promedia la energía saliente. Esto puede ampliarse verticalmente (modelos radiativos-convectivos), u horizontalmente Modelo acoplado atmósfera-océano-hielo marino. Los modelos de circulación general discretizan y resuelven las ecuaciones completas de transferencia de masa y energía e intercambio radiante. Los modelos del sistema terrestre incluyen además la biosfera. Además, están disponibles en diferentes resoluciones que van de >100km a 1km. Las altas resoluciones de los modelos climáticos globales son muy exigentes desde el punto de vista computacional y solo existen unos pocos conjuntos de datos globales. Algunos ejemplos son ICON o datos reducidos técnicamente como CHELSA (Climatologías de alta resolución para las áreas de la superficie terrestre). Temas de investigación Los temas que estudian los climatólogos se dividen a grandes rasgos en tres categorías: variabilidad del clima, mecanismos de cambio climático y cambio climático moderno. Procesos climatológicos Varios factores influyen en el estado medio de la atmósfera en un lugar determinado. Por ejemplo, las latitudes medias tendrán un pronunciado estacional en la temperatura mientras que las tropicales muestran poca variación en la temperatura a lo largo del año. Otro control importante en el clima es la continentalidad: la distancia a las grandes masas de agua como océanos. Los océanos actúan como un factor moderador, por lo que las tierras cercanas a ellos suelen tener inviernos suaves y veranos moderados. La atmósfera interactúa con otras esferas del sistema climático, con vientos que generan corrientes oceánicas que transportan el calor por todo el planeta. Clasificación del clima La clasificación es un aspecto importante de muchas ciencias como herramienta de simplificación de procesos complicados. A lo largo de los siglos se han desarrollado diferentes clasificaciones climáticas, siendo las primeras en la Antigua Grecia. La forma de clasificar los climas depende de su aplicación. Un productor de energía eólica requerirá diferente información (viento) en la clasificación que alguien interesado en la agricultura, para quien la precipitación y la temperatura son más importantes. La clasificación más utilizada, la clasificación climática de Köppen, se desarrolló a finales del y se basa en la vegetación. Utiliza datos mensuales de temperatura y precipitación. Variabilidad climática Existen diferentes modos de variabilidad: patrones recurrentes de temperatura u otras variables climáticas. Se cuantifican con diferentes índices. De la misma manera que el Promedio Industrial Dow Jones, basado en los precios de las acciones de 30 empresas, se utiliza para representar las fluctuaciones del mercado de valores en su conjunto, los índices climáticos se utilizan para representar los elementos esenciales del clima. Los índices climáticos suelen diseñarse con el doble objetivo de la simplicidad y la exhaustividad, y cada índice suele representar la situación y el momento del factor climático que representa. Por su propia naturaleza, los índices son sencillos y combinan muchos detalles en una descripción generalizada de la atmósfera o el océano que puede utilizarse para caracterizar los factores que influyen en el sistema climático mundial. El Niño-Oscilación del Sur (ENSO) es un fenómeno acoplado océano-atmósfera en el océano Pacífico responsable de la mayor parte de la variabilidad global de la temperatura, y tiene un ciclo de entre dos y siete años. La oscilación del Atlántico Norte es un modo de variabilidad que se limita principalmente a la atmósfera inferior, la troposfera. La capa de la atmósfera superior, la estratosfera, también es capaz de crear su propia variabilidad, sobre todo en la oscilación Madden-Juliana (MJO), que tiene un ciclo de aproximadamente 30-60 días. La oscilación interdecenal del Pacífico puede crear cambios en el océano Pacífico y en la baja atmósfera en escalas de tiempo decenales. Cambio climático El cambio climático se produce cuando los cambios en el sistema climático de la Tierra dan lugar a nuevos patrones meteorológicos que se mantienen durante un largo periodo de tiempo. Este periodo de tiempo puede ser tan corto como unas pocas décadas o tan largo como millones de años. El sistema climático recibe casi toda su energía del sol. El sistema climático también emite energía al espacio exterior. El equilibrio entre la energía entrante y la saliente, y el paso de la energía a través del sistema climático, determina el presupuesto energético de la Tierra. Cuando la energía entrante es mayor que la saliente, el balance energético de la Tierra es positivo y el sistema climático se calienta. Si sale más energía, el balance energético es negativo y la Tierra se enfría. El cambio climático también influye en el nivel del mar medio.] El cambio climático moderno está impulsado por las emisiones humanas de gas de efecto invernadero procedentes de la quema de combustibles fósiles que aumentan la temperatura media global en superficie. Sin embargo, el aumento de las temperaturas es solo uno de los aspectos del cambio climático moderno, ya que también se han observado cambios en las precipitaciones, en la trayectoria de las tormentas y en la nubosidad. Las temperaturas más cálidas están impulsando otros cambios en el sistema climático, como el derretimiento generalizado de los glaciares, el aumento del nivel del mar y los cambios en la flora y la fauna. Diferencias con la meteorología A diferencia de la meteorología, que se centra en los sistemas meteorológicos a corto plazo que duran hasta unas pocas semanas, la climatología estudia la frecuencia y las tendencias de esos sistemas. Estudia la periodicidad de los fenómenos meteorológicos a lo largo de años a milenios, así como los cambios en los patrones meteorológicos medios a largo plazo, en relación con las condiciones atmosféricas. Los climatólogos estudian tanto la naturaleza de los climas -local, regional o global- como los factores naturales o inducidos por el hombre que hacen que los climas cambien. La climatología tiene en cuenta el pasado y puede ayudar a predecir el futuro cambio climático. Los fenómenos de interés climatológico incluyen la capa límite atmosférica, la patrones de circulación, la transferencia de calor (radiativa, convectiva y latente), las interacciones entre la atmósfera y los océanos y la superficie terrestre (en particular la vegetación, el uso del suelo y la topografía), y la composición química y física de la atmósfera. Véase también Referencias Enlaces externos
423_0
Conjunto
En matemáticas, un conjunto es una colección de elementos considerada en sí misma como un objeto matemático. Los elementos de un conjunto, pueden ser las siguientes: personas, números, colores, letras, figuras, etc. Se dice que un elemento (o miembro) pertenece al conjunto si está definido como incluido de algún modo dentro de él. Ejemplo: el conjunto de los colores del arcoíris es: Un conjunto suele definirse mediante una propiedad que todos sus elementos poseen. Por ejemplo, para los números naturales, si se considera la propiedad de ser un número primo, el conjunto de los números primos es: Formalmente, un conjunto es el tipo de objeto matemático del que tratan los axiomas de Zermelo-Fraenkel. Historia de conjuntos El concepto de conjunto como objeto abstracto no comenzó a emplearse en matemáticas hasta el , a medida que se despejaban las dudas sobre la noción de infinito. Los trabajos de Bernard Bolzano y Bernhard Riemann ya contenían ideas relacionadas con una visión conjuntista de la matemática. Las contribuciones de Richard Dedekind al álgebra estaban formuladas en términos claramente conjuntistas, que aún prevalecen en la matemática moderna: relaciones de equivalencia, particiones, homomorfismos, etc., y él mismo explicitó las hipótesis y operaciones relativas a conjuntos que necesitó en su trabajo. La teoría de conjuntos como disciplina independiente se atribuye usualmente a Georg Cantor. Comenzando con sus investigaciones sobre conjuntos numéricos, desarrolló un estudio sobre los conjuntos infinitos y sus propiedades. La influencia de Dedekind y Cantor empezó a ser determinante a finales del , en el proceso de «axiomatización» de la matemática, en el que todos los objetos matemáticos, como los números, las funciones y las diversas estructuras, fueron construidos con base en los conjuntos. Definición Un conjunto es una colección bien definida de objetos,dichos objetos pueden ser cualquier cosa: números, personas, letras, etc. Algunos ejemplos son: es el conjunto de los números naturales menores que 5. es el conjunto de los colores verde, blanco y rojo. es el conjunto de las vocales a, e, i, o y u. es el conjunto de los palos de la baraja francesa. Los conjuntos se denotan habitualmente por letras mayúsculas. Los objetos que componen el conjunto se llaman elementos o miembros. Se dice que «pertenecen» al conjunto y se denota mediante el símbolo : la expresión se lee entonces como « está en », « pertenece a », « contiene a », etc. Para la noción contraria se usa el símbolo . Por ejemplo: , , Notación Existen varias maneras de referirse a un conjunto. En el ejemplo anterior, para los conjuntos y se usa una definición intensiva o por comprensión, donde se especifica una propiedad que todos sus elementos poseen. Sin embargo, para los conjuntos y se usa una definición extensiva, listando todos sus elementos explícitamente. Es habitual usar llaves para escribir los elementos de un conjunto, de modo que: Esta notación mediante llaves también se utiliza cuando los conjuntos se especifican de forma intensiva mediante una propiedad: Otra notación habitual para denotar por comprensión es: , En estas expresiones los dos puntos («:») significan «tal que». Así, el conjunto es el conjunto de «los números de la forma tal que es un número entero entre 1 y 10 (ambos inclusive)», o sea, el conjunto de los diez primeros cuadrados de números naturales. En lugar de los dos puntos se utiliza también la barra vertical («|») u oblicua «/» . Igualdad de conjuntos Un conjunto está totalmente determinado por sus elementos. Por ello, la igualdad de conjuntos se establece como: Esta propiedad tiene varias consecuencias. Un mismo conjunto puede especificarse de muchas maneras distintas, en particular extensivas o intensivas. Por ejemplo, el conjunto de los números naturales menores que 5 es el mismo conjunto que , el conjunto de los números 1, 2, 3 y 4. También: El orden en el que se precisan los elementos tampoco se tiene en cuenta para comparar dos conjuntos: Además, un conjunto no puede tener elementos «repetidos», ya que un objeto solo puede o bien ser un elemento de dicho conjunto o no serlo. Se da entonces que, por ejemplo: En ausencia de alguna característica adicional que distinga los «1» repetidos, lo único que puede decirse del conjunto de la derecha es que «1» es uno de sus elementos. Conjunto vacío El conjunto que no contiene ningún elemento se llama el conjunto vacío y se denota por o simplemente {}. Algunas teorías axiomáticas de conjuntos aseguran que el conjunto vacío existe incluyendo un axioma del conjunto vacío. En otras teorías, su existencia puede deducirse. Muchas posibles propiedades de conjuntos son trivialmente válidas para el conjunto vacío. Propiedades En la teoría de conjuntos axiomática estándar, por el Axioma de extensionalidad, dos conjuntos son iguales si tienen los mismos elementos; por lo tanto solo puede haber un conjunto sin ningún elemento. Por consiguiente, solo hay un único conjunto vacío, y hablamos de "el conjunto vacío" en lugar de "un conjunto vacío". Para cualquier conjunto A: (Ver operaciones con conjuntos) El conjunto vacío es un subconjunto de A: La unión de A con el conjunto vacío es A: La intersección de A con el conjunto vacío es el conjunto vacío: El producto cartesiano de A y el conjunto vacío es el conjunto vacío: El conjunto vacío tiene las siguientes propiedades: Su único subconjunto es el propio conjunto vacío: El conjunto potencia del conjunto vacío es el conjunto que contiene únicamente el conjunto vacío: Su número de elementos (cardinalidad) es cero: (La lista de símbolos matemáticos empleados se encuentra aquí). Subconjuntos Un subconjunto de un conjunto , es un conjunto que contiene algunos de los elementos de (o quizá todos): Cuando es un subconjunto de , se denota como y se dice que « está contenido en ». También puede escribirse , y decirse que es un superconjunto de y también « contiene a » o « incluye a ». Todo conjunto es un subconjunto de sí mismo, ya que siempre se cumple que «cada elemento de es a su vez un elemento de ». Es habitual establecer una distinción más fina mediante el concepto de subconjunto propio: es un subconjunto propio de si es un subconjunto de pero no es igual a . Se denota como , es decir: pero (y equivalentemente, para un superconjunto propio, ). Ejemplos. El «conjunto de todos los hombres» es un subconjunto propio del «conjunto de todas las personas». } } Conjuntos disjuntos Dos conjuntos y son disjuntos si no tienen ningún elemento en común. Por ejemplo, los conjuntos de los números racionales y los números irracionales son disjuntos: no hay ningún número que sea a la vez racional e irracional. La intersección de dos conjuntos disjuntos es el conjunto vacío. Cardinalidad Los conjuntos pueden ser finitos o infinitos. En el caso de un conjunto finito se pueden contar los elementos del conjunto: El cardinal se denota por , o . Así, en los ejemplos anteriores, se tiene que (cuatro números), (tres colores) y (diez cuadrados). El único conjunto cuyo cardinal es 0 es el conjunto vacío . Existen, a su vez, determinadas propiedades de cardinalidad. Si tomamos como ejemplo dos conjuntos, A y B: Y en el caso de tres conjuntos, A, B y C: En un conjunto infinito no hay un número finito de elementos. Es el caso por ejemplo de los números naturales: . Sin embargo, existe una manera de comparar conjuntos infinitos entre sí, y se obtiene que existen conjuntos infinitos «más grandes» que otros. El «número de elementos» de un conjunto infinito es un número transfinito. Cardinalidad de los reales Uno de los resultados más importantes de Georg Cantor fue que la cardinalidad de los reales () es más grande que la de los números naturales (). Esto es, que hay más números reales R que números enteros N. Concretamente, Cantor mostró que . La hipótesis del continuo afirma que no existen conjuntos con cardinalidades intermedias entre los naturales y los reales: No existe ningún conjunto tal que su cardinal cumpla: Si se asume el axioma de elección, la estructura de los cardinales infinitos es más clara: todos los cardinales infinitos son álefs y están bien ordenados, por lo que existe solo un cardinal inmediatamente superior a , denotado por . La hipótesis es equivalente entonces a: El cardinal del conjunto de los números reales es el inmediatamente superior al cardinal de los números naturales: Operaciones con conjuntos Existen varias operaciones básicas que pueden realizarse, partiendo de ciertos conjuntos dados, para obtener nuevos conjuntos: Unión: (símbolo ) La unión de dos conjuntos y , que se representa como , es el conjunto de todos los elementos que pertenecen al menos a uno de los conjuntos y . Intersección: (símbolo ) La intersección de dos conjuntos y es el conjunto de los elementos comunes a A y B. Diferencia: (símbolo \) La diferencia del conjunto con es el conjunto que resulta de eliminar de cualquier elemento que esté en . Complemento: El complemento de un conjunto es el conjunto que contiene todos los elementos que no pertenecen a , respecto a un conjunto que lo contiene. Diferencia simétrica: (símbolo Δ) La diferencia simétrica de dos conjuntos y es el conjunto con todos los elementos que pertenecen, o bien a , o bien a , pero no a ambos a la vez. Producto cartesiano: (símbolo ×) El producto cartesiano de dos conjuntos y es el conjunto de todos los pares ordenados formados con un primer elemento perteneciente a , y un segundo elemento perteneciente a . Ejemplos Véase también Notas Referencias Bibliografía Suplemento del capítulo II. . Nachbin, Leopoldo : Álgebra elemental (1986) Rochester, Nueva York; editora: Eva V. Chesnau. Edición de la OEA, traducida al español por César E. Silva. Bibliografía adicional Halmos, Paul R. : Teoría intuitiva de conjuntos (1965) Compañía editorial Continental S.A. México 22, D.F. primera edición en español. Enlaces externos Conjuntos Teoría de conjuntos Terminología matemática
426_0
Cristalografía
La cristalografía es la ciencia que estudia los cristales. La mayoría de los minerales, compuestos orgánicos y numerosos materiales, adoptan estructuras cristalinas cuando se han producido las condiciones favorables. Originalmente el estudio de la cristalografía incluía el estudio del crecimiento y la geometría externa de estos cristales, pasando posteriormente al estudio de su estructura interna y de su composición química. Los estudios de la estructura interna se apoyan fuertemente en el análisis de los patrones de difracción que surgen de una muestra cristalina al irradiarla con un haz de rayos X, neutrones o electrones. La estructura cristalina también se puede estudiar por medio de microscopía electrónica. Uno de sus objetivos es conocer la posición relativa de los átomos, iones y moléculas que los constituyen y sus patrones de repetición o empaquetamiento, es decir, su estructura tridimensional. La disposición de los átomos en un cristal se puede conocer por difracción de rayos X, de neutrones o electrones. La química cristalográfica estudia la relación entre la composición química, la disposición de los átomos y las fuerzas de enlace entre estos. Esta relación determina propiedades físicas y químicas de los minerales. Cuando las condiciones son favorables, cada elemento o compuesto químico tiende a cristalizarse en una forma definida y característica. Así, la sal común tiende a formar cristales cúbicos, mientras que el granate, que a veces forma también cubos, se encuentra con más frecuencia en dodecaedros o triaquisoctaedros. A pesar de sus diferentes formas de cristalización, la sal y el granate cristalizan siempre en la misma clase y sistema. En teoría son posibles treinta y dos clases cristalinas, pero solo una docena incluye prácticamente a todos los minerales comunes y algunas clases nunca se han observado. Estas treinta y dos clases se agrupan en seis sistemas cristalinos, caracterizados por la longitud y posición de sus ejes. Los minerales de cada sistema comparten algunas características de simetría y forma cristalina, así como muchas propiedades ópticas importantes. La cristalografía es una técnica importante en varias disciplinas científicas, como la química, física y biología y tiene numerosas aplicaciones prácticas en medicina, mineralogía y desarrollo de nuevos materiales. Por su papel en «hacer frente a desafíos como las enfermedades y los problemas ambientales», la UNESCO declaró el 2014 como el Año Internacional de la Cristalografía. Origen del nombre El primer uso del término cristalografía relativo al estudio de los cristales se debe al médico y yatroquímico suizo Moritz Anton Cappeller (1685-1769), que lo utilizó en 1723 en su obra Prodromus crystallographiae de crystallis improprie sic dictis commentarium. Teoría Un material cristalino es aquel en el que los átomos se estructuran en redes basadas en la repetición tridimensional de sus componentes. La estructura repetitiva se denomina celda unitaria. Los cristales se clasifican según las propiedades de simetría de la celda unitaria. Estas propiedades de simetría también se manifiestan en ocasiones en simetrías macroscópicas de los cristales, como formas geométricas o planos de fractura. El estudio de la cristalografía requiere un cierto conocimiento del grupo de simetría. La resolución de cualquier sistema óptico está limitada por el límite de difracción de la luz, que depende de su longitud de onda. Por lo tanto, la claridad general de los mapas de densidad de electrones cristalográficos resultantes depende en gran medida de la resolución de los datos de difracción, que se pueden clasificar como: baja, media, alta y atómica. Elementos de simetría Las celdas fundamentales de un cristal presentan elementos de simetría, que son: Eje de simetría: es una línea imaginaria que pasa a través del cristal, alrededor de la cual, al realizar este un giro completo, repite dos o más veces el mismo aspecto. Los ejes pueden ser: monarios, si giran el motivo una vez (360°); binarios, si lo giran dos veces (180°); ternarios, si lo giran tres veces (120°); cuaternarios, si lo giran cuatro veces (90°); o senarios, si giran el motivo seis veces (60°). Plano de simetría: es un plano imaginario que divide el cristal en dos mitades simétricas especulares, como el reflejo en un espejo, dentro de la celda. Puede haber múltiples planos de simetría. Se representa con la letra m. Centro de simetría: es un punto dentro de la celda que, al unirlo con cualquiera de la superficie, repite al otro lado del centro y a la misma distancia un punto similar. Sistemas cristalinos: todas las redes cristalinas, al igual que los cristales, que son una consecuencia de las redes, presentan elementos de simetría. Si se clasifican los 230 grupos espaciales según los elementos de simetría que poseen, se obtienen 32 clases de simetría (cada una de las cuales reúne todas las formas cristalinas que poseen los mismos elementos de simetría) es decir, regular o cúbico, tetragonal, hexagonal, romboédrico, rómbico, monoclínico y triclínico. Tipos de hábito cristalino El hábito es el aspecto externo del cristal, los distintos tipos de hábito dependen de la estructura del mineral y de las condiciones externas en las que se forman, son: Hábito cristalino: es el aspecto que presenta un cristal como consecuencia del diferente desarrollo de sus caras. Hábito acicular: cristales con gran desarrollo de caras verticales. Tienen aspecto de agujas. Hábito hojoso: cristales con aspecto de hojas por el gran desarrollo de las caras horizontales. Formas cristalográficas Es el conjunto de caras iguales que están relacionadas por su simetría: Una sola cara: pedión Dos caras: Pinacoide: iguales y paralelas relacionadas por un plano o eje binario Domo: no paralelas que se relacionan por un plano Esfenoide: no paralelas relacionadas por un eje binario Prismas, pirámides, bipirámides, trapezoedros, escalenoedros Clases cristalinas Las posibles agrupaciones de los elementos de simetría en los cristales son solamente treinta y dos, que, a su vez, se reagrupan en los denominados siete sistemas cristalinos (cúbico, tetragonal, hexagonal, trigonal o romboédrico, ortorrómbico, monoclínico y triclínico). Propiedades Sistema triclínico (a≠b≠c ≠≠≠90°): no posee ninguna simetría mínima. Sistema monoclínico (a≠b≠c ==90°≠>90°): Presenta como simetría mínima un eje de rotación binario o un eje de inversión binario (=plano de simetría) Sistema ortorrómbico (a≠b≠c ===90°): Como mínimo posee tres ejes binarios perpendiculares entre sí. Sistema tetragonal (a=b≠c ===90°): posee como característica fundamental un eje de rotación cuaternario o un eje de inversión cuaternario. Sistema hexagonal (a=b≠c ==90°, =120°): su característica fundamental es la presencia de un eje de rotación senario o un eje de inversión senario (eje ternario + plano de simetría perpendicular). Para mayor precisión, generalmente se introduce un cuarto eje i, coplanario con a y b, que forma un ángulo de 120° con cada uno de ellos, así la cruz axial será (a=b=i≠c ==90°, =120°). Índices de Miller hexagonales: como se trabaja con un cuarto índice, que se sitúa en el plano a1 a2 y a 120° de cada uno de estos ejes, los planos hexagonales se van a representar por cuatro índices (hkil). El valor de i se determina como -(h+k). Sistema romboédrico o trigonal (a=b=c ==≠90°): su característica común es la presencia de un eje de rotación ternario o un eje de inversión ternario (eje ternario + centro de simetría). Sistema cúbico (a=b=c ===90°): posee como característica fundamental cuatro ejes de rotación ternarios inclinados a 109,47°. Métodos Los métodos cristalográficos se apoyan fuertemente en el análisis de los patrones de difracción que surgen de una muestra cristalina al irradiarla con un haz de rayos X, neutrones o electrones. La estructura cristalina también puede ser estudiada por medio de microscopía electrónica. La cristalografía en biología La cristalografía asistida por rayos X es el principal método de obtención de información estructural en el estudio de proteínas y otras macromoléculas orgánicas (como la doble hélice de ADN, cuya forma se identificó en patrones de difracción de rayos X). El análisis de moléculas tan complejas y, muy especialmente, con poca simetría requiere un análisis muy complejo, utilizándose ordenadores para que el modelo molecular y empaquetamiento cristalino que se propone sea coherente con el patrón de difracción experimental. La primera estructura cristalina de una macromolécula se resolvió en 1958, un modelo tridimensional de la molécula de mioglobina obtenido por análisis de rayos X. El Banco de Datos de Proteínas (PDB) contiene información estructural de proteínas y otras macromoléculas biológicas. La cristalografía de neutrones se usa a menudo para ayudar a refinar estructuras obtenidas por métodos de rayos X o para resolver un enlace específico; los métodos a menudo se consideran complementarios, ya que los rayos X son sensibles a las posiciones de los electrones y se dispersan con mayor fuerza en los átomos pesados, mientras que los neutrones son sensibles a las posiciones del núcleo y se dispersan con fuerza incluso en muchos isótopos ligeros, incluidos el hidrógeno y el deuterio. La cristalografía electrónica se ha utilizado para determinar algunas estructuras de proteínas, sobre todo proteína de membranas y cápside viral. La cristalografía en ingeniería de materiales Las propiedades de los materiales cristalinos dependen en gran medida de su estructura cristalina. Los materiales de ingeniería son por lo general materiales policristalinos. Así como las propiedades del monocristal están dadas por las características de los átomos del material, las propiedades de los policristales son determinadas por las características y la orientación espacial de los cristales que lo componen. La técnica de difracción de rayos X permite estudiar la estructura del monocristal mediante la identificación de los planos difractantes según la ley de Bragg, lo cual es útil para la determinación de fases. Además, los métodos cristalográficos permiten estudiar también la distribución de orientaciones cristalográficas en un material, conocida también como textura cristalográfica. Otras propiedades físicas también están vinculadas a la cristalografía. Por ejemplo, los minerales de la arcilla forman estructuras pequeñas, planas y en forma de placas. La arcilla se puede deformar fácilmente porque las partículas en forma de placas pueden deslizarse entre sí en el plano de las placas, pero permanecen fuertemente conectadas en la dirección perpendicular a las placas. Dichos mecanismos se pueden estudiar mediante medidas cristalográficas de textura. En otro ejemplo, el hierro se transforma de una estructura cúbica centrada en el cuerpo (bcc) llamada ferrita a una cúbica centrada en la cara (fcc) estructura llamada austenita cuando se calienta. La estructura fcc es una estructura compacta a diferencia de la estructura bcc; por tanto, el volumen del hierro disminuye cuando se produce esta transformación. La cristalografía es útil en la identificación de fases. Al fabricar o usar un material, generalmente es deseable saber qué compuestos y qué fases están presentes en el material, ya que su composición, estructura y proporciones influirán en las propiedades del material. Cada fase tiene una disposición característica de los átomos. Se puede usar la difracción de rayos X o de neutrones para identificar qué estructuras están presentes en el material y, por lo tanto, qué compuestos están presentes. La cristalografía cubre la enumeración de los patrones de simetría que pueden formar los átomos en un cristal y por esta razón está relacionada con la teoría de grupos. Literatura de referencia La serie International Tables for Crystallography es una serie de ocho libros que describe las notaciones estándar para formatear, describir y probar cristales. La serie contiene volúmenes que cubren métodos de análisis y procedimientos matemáticos para determinar la estructura orgánica a través de cristalografía de rayos X, difracción de electrones y difracción de neutrones. Las tablas internacionales se centran en procedimientos, técnicas y descripciones y no enumeran las propiedades físicas de los cristales individuales en sí. Cada libro tiene unas 1000 páginas y los títulos de los libros son: Vol A - Space Group Symmetry, Vol A1 - Symmetry Relations Between Space Groups, Vol B - Reciprocal Space, Vol C - Mathematical, Physical, and Chemical Tables, Vol D - Physical Properties of Crystals, Vol E - Subperiodic Groups, Vol F - Crystallography of Biological Macromolecules, and Vol G - Definition and Exchange of Crystallographic Data. Véase también Cristales de hielo Cristalogénesis Cristaloquímica Cuasicristal Defecto cristalino Factor de empaquetamiento atómico Grupo de simetría Índice de Miller Redes de Bravais René Just Haüy Referencias Enlaces externos Año Internacional de la Cristalografía Cristalografía
435_0
Charles Darwin
Charles Robert Darwin (Shrewsbury, 12 de febrero de 1809-Down House, 19 de abril de 1882), comúnmente conocido como Charles Darwin, también llamado Carlos Darwin en parte del ámbito hispano, fue un naturalista inglés, reconocido por ser el científico más influyente (y el primero, compartiendo este logro de forma independiente con Alfred Russel Wallace) de los que plantearon la idea de la evolución biológica a través de la selección natural, justificándola en su obra El origen de las especies (1859) con numerosos ejemplos extraídos de la observación de la naturaleza. Así postulaba que todas las especies de seres vivos han evolucionado con el tiempo a partir de un antepasado común mediante un proceso denominado selección natural. La evolución fue aceptada como un hecho por la comunidad científica y por buena parte del público en vida de Darwin, mientras que su teoría de la evolución mediante selección natural no fue considerada como la explicación primaria del proceso evolutivo hasta los años 1930. Actualmente constituye la base de la síntesis evolutiva moderna. Con sus modificaciones, los descubrimientos científicos de Darwin aún siguen siendo el acta fundacional de la biología como ciencia, puesto que constituyen una explicación lógica que unifica las observaciones sobre la diversidad de la vida. Con apenas dieciséis años Darwin ingresó en la Universidad de Edimburgo, aunque paulatinamente fue dejando de lado sus estudios de medicina para dedicarse a la investigación de invertebrados marinos. Durante sus estudios de medicina, asistió dos veces a una sala de operaciones en el hospital de Edimburgo, y huyó de ambas dejándole una profunda impresión negativa. «Esto era mucho antes de los benditos días del cloroformo», escribió en su autobiografía. Posteriormente, la Universidad de Cambridge dio alas a su pasión por las ciencias naturales. El segundo viaje del HMS Beagle consolidó su fama como eminente geólogo, cuyas observaciones y teorías apoyaban las ideas uniformistas de Charles Lyell, mientras que la publicación del diario de su viaje lo hizo célebre como escritor popular. Intrigado por la distribución geográfica de la vida salvaje y por los fósiles que recolectó en su periplo, Darwin investigó sobre el hecho de la transmutación de las especies y concibió su teoría de la selección natural en 1838. Aunque discutió sus ideas con algunos naturalistas, necesitaba tiempo para realizar una investigación exhaustiva, y sus trabajos geológicos tenían prioridad. Se encontraba redactando su teoría en 1858 cuando Alfred Russel Wallace le envió un ensayo que describía la misma idea, urgiéndole Darwin a realizar una publicación conjunta de ambas teorías. Su obra fundamental, El origen de las especies por medio de la selección natural, o la preservación de las razas favorecidas en la lucha por la vida, publicada en 1859, estableció que la explicación de la diversidad que se observa en la naturaleza se debe a las modificaciones acumuladas por la evolución a lo largo de las sucesivas generaciones. Trató la evolución humana y la selección natural en su obra El origen del hombre y de la selección en relación al sexo y posteriormente en La expresión de las emociones en los animales y en el hombre. También dedicó una serie de publicaciones a sus investigaciones en botánica, y su última obra abordó el tema de los vermes terrestres y sus efectos en la formación del suelo. Dos semanas antes de morir publicó un último y breve trabajo sobre un bivalvo diminuto encontrado en las patas de un escarabajo de agua de los Midlands ingleses. Dicho ejemplar le fue enviado por Walter Drawbridge Crick, abuelo paterno de Francis Crick, codescubridor junto a James Dewey Watson de la estructura molecular del ADN en 1953. Como reconocimiento a la excepcionalidad de sus trabajos, fue uno de los cinco personajes del no pertenecientes a la realeza del Reino Unido honrado con funerales de Estado, siendo sepultado en la abadía de Westminster, próximo a John Herschel e Isaac Newton. Biografía Primeros años y formación Charles Robert Darwin nació en Shrewsbury, Shropshire, Inglaterra, el 12 de febrero de 1809 en el hogar familiar, llamado "The Mount" ('El monte'). Fue el quinto de seis de los hijos habidos entre Robert Darwin, un médico y hombre de negocios acomodado, y Susannah Darwin (apellidada Wedgwood de soltera). Era nieto de Erasmus Darwin por parte de padre y de Josiah Wedgwood por parte de madre. Ambas familias eran de antigua tradición unitarista, aunque los Wedgwoods adoptaron el anglicanismo. El mismo Robert Darwin, siendo un discreto librepensador, bautizó a su hijo Charles en la Iglesia anglicana, aunque tanto él como sus hermanos asistían a los oficios unitaristas con su madre. A los ocho años Charles ya mostraba predilección por la Historia natural y por el coleccionismo de ejemplares cuando en 1817 se incorporó a la escuela diurna, regida por el predicador de la capilla donde asistía a los cultos. En julio de ese mismo año falleció su madre. En septiembre de 1818 se incorporó con su hermano Erasmus a la cercana escuela anglicana de Shrewsbury como pupilo. Darwin pasó el verano de 1825 como aprendiz de médico, ayudando a su padre a asistir a las personas necesitadas de Shropshire, antes de marchar con Erasmus a la Universidad de Edimburgo. Encontró sus clases tediosas y la cirugía insufrible, de modo que no se aplicaba a los estudios de medicina. Aprendió taxidermia con John Edmonstone, un esclavo negro liberto que había acompañado a Charles Waterton por las selvas de Sudamérica y se le veía frecuentemente sentado con aquel «hombre inteligente y muy agradable». En su segundo año en Edimburgo ingresó en la Sociedad Pliniana, un grupo de estudiantes de historia natural cuyos debates derivaron hacia el materialismo radical. Colaboró con las investigaciones de Robert Edmund Grant sobre la anatomía y el ciclo vital de los invertebrados marinos en el fiordo de Forth, y en marzo de 1827 presentó ante la Sociedad Pliniana el descubrimiento de que unas esporas blancas encontradas en caparazones de ostras que eran los huevos de una sanguijuela. Un buen día, Grant expuso las ideas sobre evolución de Lamarck. Darwin quedó estupefacto, pero al haber leído recientemente ideas similares en los escritos de su abuelo Erasmus, mantuvo posteriormente una postura indiferente. Darwin se aburría bastante con el curso de historia natural impartido por Robert Jameson, que comprendía la geología y su debate entre neptunismo y plutonismo. Aprendió la clasificación de las plantas, y contribuyó a los trabajos en las colecciones del museo de la universidad, uno de los mayores de la Europa de su tiempo. Esta falta de atención a sus estudios de medicina disgustó a su padre, quien lo envió al Christ’s College de Cambridge para obtener un grado en letras como primer paso para ordenarse como pastor anglicano. Darwin llegó en enero de 1828, pero prefería la equitación y el tiro al estudio. Su primo William Fox le introdujo en la moda popular de coleccionar escarabajos, a la que se dedicó con entusiasmo, consiguiendo publicar algunos de sus hallazgos en el manual Illustrations of British entomology de James Francis Stephens. Se convirtió en un amigo íntimo y seguidor del profesor de botánica John Stevens Henslow y conoció a otros importantes naturalistas que contemplaban su trabajo científico como una teología natural, siendo conocido por estos académicos como «el hombre que pasea con Henslow». En la proximidad de los exámenes finales, Darwin se centró en sus estudios, deleitándose con el lenguaje y la lógica de la obra Demostración del Cristianismo (Natural Theology or Evidences of the Existence and Attributes of the Deity) de William Paley. En el examen final de enero de 1831 Darwin aprobó, quedando el décimo de una lista de 178 examinados. Charles Darwin tuvo que quedarse en Cambridge hasta junio. Durante este período leyó tres obras que ejercerían una influencia fundamental en la evolución de su pensamiento: otra obra de Paley, Teología Natural, uno de los tratados clásicos en defensa de la adaptación biológica como prueba del diseño divino a través de las leyes naturales; el recién publicado Un discurso preliminar en el estudio de la filosofía natural, de John Herschel, que describía la última meta de la filosofía natural como la comprensión de estas leyes a través del razonamiento inductivo basado en la observación; y el Viaje a las regiones equinocciales del Nuevo Continente, de Alexander von Humboldt. Inspirado por un ardiente afán de contribuir al avance del conocimiento de la naturaleza, Darwin planeó visitar Tenerife con algunos compañeros de clase tras la graduación para estudiar la historia natural de los trópicos. Mientras preparaba el viaje se inscribió en el curso de geología de Adam Sedgwick y posteriormente le acompañó durante el verano a trazar mapas de estratos en Gales. Tras una quincena con otros amigos estudiantes en Barmouth, volvió a su hogar, encontrándose con una carta de Henslow que le proponía un puesto como naturalista sin retribución para el capitán Robert FitzRoy, más como un acompañante que como mero recolector de materiales en el HMS Beagle, que zarparía en cuatro semanas en una expedición para cartografiar la costa de América del Sur. Su padre se opuso en principio al viaje que se planeaba para dos años, aduciendo que era una pérdida de tiempo, pero su cuñado Josiah Wedgwood lo persuadió, aceptando así finalmente la participación de su hijo. Viaje del HMS Beagle El viaje del Beagle duró casi cinco años, zarpando de la bahía de Plymouth el 27 de diciembre de 1831 y arribando a Falmouth el 2 de octubre de 1836. Tal como Fitzroy le había propuesto, el joven Darwin dedicó la mayor parte de su tiempo a investigaciones geológicas en tierra firme y a recopilar ejemplares, mientras el Beagle realizaba su misión científica para medir corrientes oceánicas y cartografiando la costa. Darwin tomó notas escrupulosamente durante todo el viaje, y enviaba regularmente sus hallazgos a Cambridge, junto con una larga correspondencia para su familia que se convertiría en el diario de su viaje. Tenía nociones de geología, entomología y disección de invertebrados marinos —aunque se sabía inexperto en otras disciplinas científicas; de modo que reunió hábilmente gran número de especímenes para que los especialistas en la materia pudieran llevar a cabo una evaluación exhaustiva. A pesar de sufrir frecuentes mareos —que ya había acusado la primera vez que embarcó su equipaje a bordo— la mayoría de sus notas zoológicas versa sobre invertebrados marinos, comenzando por una notable colección de plancton que reunió en una temporada con viento en calma. En su primera escala, en Santiago de Cabo Verde, Darwin descubrió que uno de los estratos blanquecinos elevados en la roca volcánica contenían restos de conchas. Como Fitzroy le había prestado poco antes la obra de Charles Lyell Principios de Geología, que establecía los principios uniformistas según los cuales el relieve se formaba mediante surgimientos o hundimientos a lo largo de inmensos períodos, Darwin comprendió ese fenómeno desde el punto de vista de Lyell, e incluso se planteó escribir en el futuro una obra sobre geología. En Brasil, Darwin quedó fascinado por el bosque tropical, pero aborreció el espectáculo de la esclavitud. En Punta Alta y en los barrancos de la costa de Monte Hermoso, cerca de Bahía Blanca, Argentina, realizó un hallazgo de primer orden al localizar en una colina fósiles de enormes mamíferos extintos junto a restos modernos de bivalvos, extintos más recientemente de manera natural. Identificó, por un diente, al poco conocido megaterio —que en principio asoció con el caparazón de una versión gigante (gliptodonte) de la armadura de los armadillos locales—. Estos hallazgos, ocurridos el 24 de septiembre de 1832, constituyeron la primera prueba fósil que halló sobre la mutabilidad de las especies y marcaron el inicio de la posterior elaboración de su célebre teoría. Estos hallazgos despertaron un enorme interés a su regreso a Inglaterra. Cabalgando con los gauchos del interior se dedicó a observar la geología y extraer más fósiles, adquiriendo, al mismo tiempo, una perspectiva de los problemas sociales, políticos y antropológicos tanto de los nativos como de los criollos en el momento anterior a la revolución de los Restauradores. También aprendió que los dos tipos de ñandú poseen territorios separados, aunque superpuestos. Contempló con asombro la diversidad de la fauna y la flora en función de los distintos lugares. Así, pudo comprender que la separación geográfica y las distintas condiciones de vida eran la causa de que las poblaciones variaran independientemente unas de otras. Continuando su viaje hacia el sur, observó llanuras aplanadas llenas de guijarros en las que cúmulos de restos de conchas formaban pequeñas elevaciones. Como estaba leyendo la segunda obra de Lyell, asumió que se trataba de los «centros de creación» de especies que este describía, aunque por primera vez comenzó a cuestionar los conceptos de lento desgaste y extinción de especies defendidos por Lyell. En Tierra del Fuego se produjo el retorno de tres nativos yagán que habían sido embarcados durante la primera expedición del Beagle, con objeto de recibir una educación que les permitiera actuar de misioneros ante sus semejantes. Darwin los encontró amables y civilizados, aunque los otros nativos le parecieron «salvajes miserables y degradados», tan distintos de los que iban a bordo como lo pudieran ser los animales salvajes de los domésticos, si bien, para Darwin, esa distinción estribaba en cuestiones culturales y no raciales. Al contrario que sus colegas científicos, empezó a sospechar que no existía una diferencia insalvable entre los animales y las personas. Al cabo de un año, la misión había sido abandonada. Uno de los fueguinos retornados, a quien le habían dado el nombre cristiano de Jemmy Button, vivía con los demás nativos, se había casado y manifestó no tener ningún deseo de volver a Inglaterra. En Chile, Darwin fue testigo del terremoto de Concepción, donde observó indicios de un levantamiento del terreno, entre los que se encontraban acumulaciones de valvas de mejillones por encima de la línea de la marea alta. Asimismo, también encontró restos de conchas en las alturas de los Andes, así como árboles fosilizados que habían crecido a pie de playa, lo que le llevó a pensar que, según subían niveles de tierra, las islas oceánicas se iban hundiendo, formándose así los atolones de arrecifes de coral. Poco después, en las islas Galápagos, geológicamente jóvenes, Darwin se dedicó a buscar indicios de un antiguo «centro de creación», y encontró variedades de pinzones que estaban emparentadas con la variedad continental, pero que variaban de isla a isla. También recibió informes de que los caparazones de tortugas variaban ligeramente entre unas islas y otras, permitiendo así su identificación. En Australia, la rata marsupial y el ornitorrinco le parecieron tan extraños que Darwin pensó que era como si «dos creadores» hubiesen obrado a la vez. Encontró a los aborígenes australianos «bienhumorados y agradables», y notó su decadencia por la proliferación de asentamientos europeos. El HMS Beagle también investigó la formación de los atolones de las islas Cocos, con resultados que respaldaban las teorías de Darwin. Por aquel entonces, Fitzroy —que redactaba la «narración oficial» de la expedición— leyó los diarios de Darwin y le pidió permiso para incorporarlos a su crónica. El diario de Darwin fue entonces reescrito como un tercer volumen dedicado a la historia natural. En Ciudad del Cabo, una de las últimas escalas de su vuelta al mundo, Darwin y Fitzroy conocieron a John Herschel, quien había escrito recientemente a Lyell alabando su teoría uniformista por plantear una especulación sobre «ese misterio de misterios: la sustitución de especies extintas por otras [como] un proceso natural en oposición a uno milagroso». Ordenando sus notas rumbo hacia Plymouth, Darwin escribía que de probarse sus crecientes sospechas sobre los pinzones, las tortugas y el zorro de las islas Malvinas, «estos hechos desbaratan la teoría de la estabilidad de las especies» (más tarde, reescribió prudentemente «podrían desbaratar»). Posteriormente reconoció que en aquel momento, los hechos observados le hacían pensar que «arrojaban alguna luz sobre el origen de las especies». Años de la gestación y publicación de El origen de las especies Inicios de la teoría Cuando el Beagle regresó el 2 de octubre de 1836, Darwin se había convertido en una celebridad en los círculos científicos, ya que en diciembre de 1835 Henslow había promovido la reputación de su anterior discípulo distribuyendo entre naturalistas seleccionados un panfleto de sus comunicaciones sobre geología. Darwin fue a visitar su casa en Shrewsbury y se encontró con sus parientes, apresurándose inmediatamente a Cambridge para ver a Henslow, quien le recomendó buscar naturalistas disponibles para catalogar las colecciones, y acordó encargarse de los especímenes botánicos. El padre de Darwin organizó las inversiones que permitieron a su hijo ser un caballero científico sustentado por sus propios ingresos, y le animó a hacer una gira por las instituciones de Londres para asistir a recepciones en su honor y buscar de ese modo expertos para describir las colecciones. Los zoólogos tenían ante sí un enorme trabajo acumulado, y había peligro de que los especímenes quedaran abandonados en almacenes. Charles Lyell, entusiasmado, se encontró con Darwin por primera vez el 29 de octubre y pronto le presentó al prometedor anatomista Richard Owen, quien disponía de las instalaciones del Real Colegio de Cirujanos de Inglaterra para poder trabajar en los huesos fosilizados recolectados por Darwin. Entre los sorprendentes ejemplares que clasificó Owen se encontraban los de perezosos gigantes extintos, un esqueleto casi completo del desconocido Scelidotherium, un roedor del tamaño de un hipopótamo, que recordaba a un capibara gigante, y fragmentos del caparazón de Glyptodon, un armadillo gigante, tal y como inicialmente supuso Darwin. Estas criaturas extintas estaban estrechamente relacionadas con especies vivas de Sudamérica. A mediados de diciembre, Darwin buscó alojamiento en Cambridge para organizar su trabajo en sus colecciones y reescribir su «diario». Escribió su primer artículo en el que defendía que la masa continental de América del Sur se estaba elevando lentamente, y con el apoyo entusiasta de Lyell lo leyó en la Sociedad Geológica de Londres el 4 de enero de 1837. El mismo día presentó sus especímenes de mamíferos y aves a la Sociedad Zoológica de Londres. El ornitólogo John Gould pronto anunció que las aves de las islas Galápagos que Darwin había pensado que eran una mezcla de tordos, picogordos y pinzones, eran en realidad especies distintas de pinzones. El 17 de febrero Darwin fue elegido como miembro de la Sociedad Geográfica y el discurso de presentación, que estuvo a cargo de Lyell en su calidad de presidente, expuso los hallazgos de Owen a partir de los fósiles de Darwin, enfatizando la continuidad geográfica de las especies como apoyo a sus ideas uniformistas. A comienzos de marzo Darwin se mudó a Londres para residir cerca de su trabajo, uniéndose al círculo social de científicos de Lyell, con eruditos como Charles Babbage, quien le describió a Dios como diseñador de leyes. La carta de John Herschel sobre el «misterio de misterios» de las nuevas especies fue ampliamente discutida en estas reuniones, con explicaciones que se buscaban en las leyes de la naturaleza, no en milagros ad hoc. Darwin permaneció con su hermano Erasmus, quien era un libre pensador, miembro del círculo del partido Whig y amigo íntimo de la escritora Harriet Martineau que promovió el maltusianismo que subyacía a la controvertida ley de Pobres de 1834 de los whigs para impedir que el bienestar produjera sobrepoblación y más pobreza. Como unitarista recibió bien las implicaciones radicalistas de la transmutación de las especies, promocionadas por Robert Edmond Grant y jóvenes cirujanos influidos por Étienne Geoffroy Saint-Hilaire, pero que eran anatema para los anglicanos que defendían el orden social. En su primera reunión para discutir sus detallados hallazgos, Gould le dijo a Darwin que los pinzones de las distintas islas de las Galápagos eran especies diferentes. Los dos ñandúes también eran especies distintas, y el 14 de marzo Darwin publicó el hecho de que su distribución había cambiado, desplazándose hacia el sur. A mediados de marzo, Darwin especulaba en su cuaderno rojo sobre la posibilidad de que «una especie se transforme en otra» para explicar la distribución geográfica de las especies de seres vivos como los ñandúes, y de las extintas como Macrauchenia, una especie de guanaco gigante. Desarrolló sus ideas sobre la longevidad, la reproducción asexual y la reproducción sexual en su cuaderno B en torno a mediados de julio hablando de la variación en la descendencia para «adaptarse y alterar la raza en un mundo en cambio» como la explicación de lo observado en las tortugas de las Galápagos, pinzones y ñandúes. Realizó un esbozo en el que representaba la descendencia como la ramificación de un árbol evolutivo, en el cual «es absurdo hablar de que un animal sea más evolucionado que otro», descartando de ese modo la teoría de Lamarck en la cual líneas evolutivas independientes progresaban hacia formas más evolucionadas. El proceso de preparación A su vuelta al Reino Unido, Darwin publicó la obra Diario del viaje del Beagle. Cuando las «crónicas» de Fitzroy se publicaron en mayo de 1839, los diarios de Darwin eran ya un éxito tal que el mismo Fitzroy costeó la publicación del tercer tomo. Durante más de una década, se dedicó a realizar pruebas de cruce de animales y numerosos experimentos con plantas, mediante los cuales encontró indicios de que las especies no eran realidades inmutables que le permitieron profundizar las implicaciones de su teoría. Durante más de una década estos trabajos constituyeron el trasfondo de su investigación principal, consistente en la publicación de los resultados científicos del «viaje del Beagle». A principios de 1842, Darwin escribió una carta a Lyell exponiéndole sus ideas, quien observó que su camarada «se negaba a ver un origen para cada grupo similar de especies». Tras tres años de trabajo, Darwin publicó en mayo sus estudios sobre los arrecifes coralinos, y comenzó a esbozar su teoría. Para escapar a las presiones de la capital, el matrimonio Darwin se mudó a su Down House rural en septiembre. El 11 de enero de 1844 Darwin comentó sus especulaciones con el botánico Joseph Dalton Hooker, admitiendo con humor que era «como confesarse culpable de asesinato». Hooker replicó que en su opinión había «series de producción en diferentes puntos, así como un cambio gradual en las especies», y le manifestó su interés en «escuchar su explicación sobre cómo puede producirse este cambio, dado que por el momento las opiniones al respecto no me satisfacen». Hacia el mes de julio, Darwin había ampliado su esbozo a un ensayo de 230 páginas, destinado a completarse con el resto de sus investigaciones en el caso de una muerte prematura. En noviembre la opinión pública reaccionó con polémica ante la publicación anónima de la obra Vestigios de la historia natural de la Creación, escrita por Robert Chambers. Se trataba de una obra bien redactada que llamó la atención sobre el tema de la transmutación. Darwin le censuró su bisoñez en geología y zoología, pero las críticas que recibió esta defensa de la evolución hicieron que revisara cuidadosamente sus propios argumentos. En 1846 Darwin ya había completado su tercer libro sobre geología, Observaciones geológicas en América del Sur. Recuperó su fascinación por los invertebrados marinos, que había despertado en sus años de estudiante cuando diseccionaba y catalogaba con Robert Edmond Grant los percebes recogidos durante su viaje, observando con placer sus complejas estructuras y planteando analogías con estructuras similares. En 1847, Hooker recibió el «ensayo» y envió algunas notas críticas a Darwin, que le ayudaron a ver su obra con distanciamiento científico y cuestionarse su oposición al creacionismo. Preocupado por su enfermedad crónica, Darwin acudió en 1849 al balneario del doctor James Manby Gully, y descubrió con sorpresa las virtudes de la hidroterapia. En 1851 su querida hija Anne Darwin enfermó, avivando los temores de Darwin de que su mal pudiera ser hereditario, y tras una serie de crisis falleció. A lo largo de ocho años de trabajo sobre cirrípedos, la teoría de Darwin le había ayudado a encontrar homologías que indicaban que mínimas alteraciones morfológicas permitían a los organismos cumplir nuevas funciones en nuevas condiciones, y el hallazgo de minúsculos machos parásitos en organismos hermafroditas le sugirió una progresión intermedia en el desarrollo de seres sexuados. En 1853 este trabajo le valió la Medalla Real concedida por la Royal Society, trayéndole así la celebridad como biólogo. En 1854 continuó su trabajo sobre la teoría de las especies, y en noviembre ya había anotado que las diferencias en los caracteres de los descendientes podían obedecer a su adaptación a «diversos entornos» en la economía natural. Trabajo excesivo, enfermedad y matrimonio Durante el desarrollo de su profundo estudio sobre la transmutación de las especies, Darwin se cargó con más trabajos. Mientras aún escribía su «diario», continuó editando y publicando los informes de los expertos sobre sus colecciones y con la ayuda de Henslow obtuvo una asignación del tesoro de 1000 libras para patrocinar su obra en varios volúmenes Zoología del viaje del Beagle. En esta última y en su libro Geología de Sudamérica acepta datos no realistas en apoyo de las ideas de Lyell. Darwin acabó de escribir su diario en torno al 20 de junio de 1837, día de la coronación de la reina Victoria, pero posteriormente tuvo que corregir las pruebas. La salud de Darwin se resintió por la presión. El 20 de septiembre tuvo una «incómoda palpitación del corazón», de modo que los médicos le conminaron a «abandonar todo el trabajo» y vivir en el campo durante algunas semanas. Tras visitar Shrewsbury se reunió con sus parientes de la familia Wedgwood en Maer Hall, Staffordshire, pero les encontró demasiado entusiasmados con los relatos de sus viajes como para proporcionarle algún descanso. Su encantadora, inteligente y cultivada prima Emma Wedgwood (1808-1896), nueve meses mayor que Darwin, estaba cuidando de su tía inválida. Su tío, Jos señaló un lugar donde el limo habían desaparecido bajo el terreno y sugirió que podría ser obra de los gusanos, inspirando una «nueva e importante teoría» sobre su papel en la formación del suelo que Darwin presentó ante la Sociedad Geológica de Londres el 1 de noviembre. William Whewell animó a Darwin a aceptar las obligaciones de secretario de la Sociedad Geológica. Tras declinar inicialmente la oferta, aceptó el cargo en marzo de 1838. A pesar de la abrumadora labor de escribir y editar los informes del Beagle, Darwin realizó destacables progresos en el problema de la transmutación, aprovechando cualquier oportunidad para poner en cuestión a naturalistas expertos y, de forma menos convencional, a personas con experiencia práctica, como granjeros y criadores de palomas. Con el tiempo su investigación tomaba datos de sus parientes e hijos, la familia Butler, los vecinos, colonos y antiguos compañeros de navegación. Entre sus especulaciones incluyó desde el principio a la naturaleza humana, y observando un orangután en el zoológico el 28 de marzo de 1838 reparó en lo semejante de su conducta a la de un niño. Los esfuerzos le pasaron factura, y en junio tuvo que permanecer varios días en cama con problemas estomacales, dolor de cabeza y síntomas de afección cardíaca. Durante el resto de su vida se vio repetidamente incapacitado con episodios de dolores de estómago, vómitos, abscesos graves, palpitaciones, temblores y otros síntomas, en particular durante las épocas de estrés como la asistencia a reuniones o visitas sociales. La causa de la enfermedad de Darwin sigue siendo desconocida, y todos los intentos de tratamiento tuvieron poco éxito. El 23 de junio se tomó un respiro y se fue a «hacer algo de geología» en Escocia. Visitó Glen Roy con un tiempo extraordinario para ver los «caminos naturales» cortados en las laderas de las colinas a tres alturas. Posteriormente publicó su interpretación de este fenómeno, afirmando que eran playas de mar elevadas por los movimientos geológicos, pero posteriormente tuvo que aceptar que eran líneas de la orilla de un lago proglacial. Totalmente recuperado regresó a Shrewsbury en julio. Acostumbraba a tomar notas diarias sobre la cría animal, al tiempo que pergeñaba pensamientos inconexos sobre su carrera y proyectos en dos pedazos de papel, en los que valoraba las ventajas e inconvenientes de contraer matrimonio. Tras tomar una decisión favorable, lo discutió con su padre y fue a visitar a su prima Emma el 29 de julio. No llegó a hacerle proposiciones, pero en contra del consejo de su padre le mencionó sus ideas sobre la transmutación. Continuando con sus investigaciones en Londres, a las extensas lecturas de Darwin se añadió la sexta edición de la obra de Thomas Malthus Ensayo sobre el principio de la población: Malthus afirmaba que si no se controlaba, la población humana crecería en progresión geométrica y pronto excedería los suministros de alimentos, alcanzando lo que se conoce como catástrofe maltusiana. Darwin estaba bien preparado para percatarse de que eso se aplicaba a lo que de Candolle denominaba «guerra de especies» entre plantas y a la lucha por la existencia en la vida salvaje, explicando cómo el tamaño poblacional de una especie permanecía bastante estable. Puesto que las especies siempre se reproducían en cantidad mayor que los recursos disponibles, las variaciones favorables mejorarían la supervivencia de los organismos transmitiendo las variaciones a su descendencia, mientras que las variaciones desfavorables se perderían. Esto acabaría dando como resultado la formación de nuevas especies. El 28 de septiembre de 1838 anotó esta intuición, describiéndola como un tipo de cuña que introduciría las estructuras adaptadas en las fisuras de la economía de la naturaleza al tiempo que las estructuras más débiles se hacían a un lado. En los meses siguientes comparó a los granjeros recogiendo lo mejor de su cosecha con una selección natural maltusiana a partir de variantes surgidas «al azar», de modo que «cualquier parte de [cualquier] estructura nuevamente adquirida está completamente experimentada y perfeccionada», y pensó que esta analogía era «la parte más hermosa de mi teoría». El 11 de noviembre volvió a Maer y se declaró a Emma, contándole una vez más sus ideas. Ella aceptó, y en los intercambios de cartas de amor mostraba cómo valoraba su apertura a compartir sus diferencias, y exponiendo también sus creencias unitaristas y su preocupación porque sus dudas honestas pudieran separarlos más adelante. Mientras estaba buscando casa en Londres, los accesos de enfermedad continuaban y Emma le escribió apremiándole a que se tomara algún descanso, comentando de modo casi profético «No sigas poniéndote malo, mi querido Charley hasta que pueda estar contigo para cuidarte». Él encontró una casa que llamó una «cabaña de guacamayos» (por sus llamativos interiores) en Gower Street, y trasladó allí su museo durante las navidades. El 24 de enero de 1839 Darwin fue elegido miembro de la Royal Society. El 29 de enero Darwin y Emma Wedgwood se casaron en Maer en una ceremonia anglicana preparada para acoger a los unitarios, e inmediatamente tomaron el tren a Londres para ocupar su nuevo hogar. Publicación A comienzos de 1856 Darwin investigaba si los huevos y semillas podrían sobrevivir a un viaje en el agua del mar diseminando de ese modo las especies por los océanos. Hooker cada vez dudaba más de la doctrina tradicional en torno a la inmutabilidad de las especies, pero su joven amigo Thomas Henry Huxley era un firme detractor de la evolución. Por su parte, Lyell estaba fascinado por las especulaciones de Darwin, aunque sin percibir el alcance de sus implicaciones. Cuando leyó un artículo de Alfred Russel Wallace sobre la Introducción de especies, observó similitudes con los pensamientos de Darwin y le apremió a publicarlos para establecer la precedencia. Aunque Darwin no percibió amenaza alguna, comenzó a trabajar en una publicación corta. La contestación de difíciles cuestiones retenían su desarrollo una y otra vez, y finalmente amplió sus planes a la redacción de un «gran libro sobre las especies» titulado Selección natural. Darwin continuó con sus investigaciones, obteniendo información y especímenes de naturalistas de todo el mundo, incluyendo a Wallace, que estaba trabajando en Borneo. El botánico estadounidense Asa Gray mostraba intereses similares, y el 5 de septiembre de 1857 Darwin envió a Gray un esbozo detallado de sus ideas, incluyendo un extracto de su obra Selección natural. En diciembre, Darwin recibió una carta de Wallace preguntándole si el libro trataría la cuestión del origen del hombre. Él le contestó que evitaría el tema al estar «tan rodeado de prejuicios», mientras animaba a Wallace a seguir con su línea teórica, añadiendo que «Yo voy mucho más allá que Usted». El libro de Darwin estaba a la mitad cuando el 18 de junio de 1858 recibió una carta de Wallace. En ella, Wallace adjuntaba un manuscrito para ser revisado en el que defendía la evolución por selección natural. A petición de su autor, Darwin envió el manuscrito a Lyell, mostrándole su sorpresa por la extraordinaria coincidencia de sus teorías, y sugiriendo la publicación del artículo de Wallace en cualquiera de las revistas que este prefiriese. La familia de Darwin estaba en crisis, y los niños de su pueblo estaban muriendo de escarlatina, de modo que dejó el asunto en manos de Lyell y Hooker. Finalmente se decidió por una presentación conjunta en la Sociedad Linneana de Londres el 1 de julio bajo el título Sobre la tendencia de las especies a crear variedades, así como sobre la perpetuación de las variedades y de las especies por medio de la selección natural compuesta por dos artículos independientes: el manuscrito de Wallace, y un extracto del no publicado Ensayo de Darwin, escrito en 1844, junto con un resumen de la carta de Darwin a Asa Gray. No obstante, la hija de Darwin murió pronto de escarlatina y estaba demasiado abatido como para asistir. La presentación de la teoría de la selección natural ante la Sociedad Linneana no recibió demasiada atención. Tras la publicación del artículo en agosto en el periódico de la sociedad, se reimprimió en varias revistas y recibió algunas reseñas y cartas, pero el presidente de la Sociedad Linneana comentaba en mayo de 1858 que aquel año no estaba señalado por ningún descubrimiento revolucionario. Solo una reseña le resultó a Darwin lo suficientemente incisiva como para tenerla en cuenta más tarde: el profesor Samuel Haughton de Dublín afirmaba que «todo lo novedoso del artículo es falso, y lo verdadero ya es cosa dicha anteriormente». Darwin se debatió durante trece meses para producir un extracto de su «gran libro», sufriendo enfermedades del corazón, pero recibiendo continuos ánimos de sus amigos científicos. Lyell lo dispuso todo para que lo publicara John Murray. El origen de las especies mediante la selección natural o la conservación de las razas favorecidas en la lucha por la vida (habitualmente conocido bajo el título abreviado de El origen de las especies) resultó inusitadamente popular, y el lote completo de 1250 copias tenía un número de suscriptores superior cuando salió a venta a los libreros el 22 de noviembre de 1859. En el libro, Darwin expone una «extensa argumentación» a partir de observaciones detalladas e inferencias, y considera con anticipación las objeciones a su teoría. Su única alusión a la evolución humana fue un comentario moderado en el que se hablaba de que «se arrojará luz sobre el origen del hombre y su historia». Su teoría se formula de modo sencillo en la Introducción: Darwin argumentó contundentemente en favor de un origen común de las especies pero evitó el entonces controvertido término «evolución» y desde la segunda edición de El origen de las especies, al final del libro, concluía que: Los últimos años de Darwin A pesar de los repetidos brotes de su enfermedad durante los últimos 22 años de su vida, Darwin continuó infatigablemente su trabajo. Habiendo publicado El origen de las especies como un resumen de su teoría, continuó desarrollando líneas de investigación que allí solo habían sido esbozadas y que incluyeron objetos tan dispares como la evolución humana, diversos aspectos de la adaptación de las plantas o la belleza decorativa en la vida salvaje. En 1861, sus investigaciones sobre la polinización por insectos le condujeron a novedosos estudios sobre las orquídeas salvajes en los que investigó la adaptación de sus flores al síndrome floral y al aseguramiento de la heterosis. La fecundación de las orquídeas, publicada en 1862, ofreció la primera demostración detallada del poder de la selección natural, explicando las complejas relaciones ecológicas y haciendo verificables las predicciones. El deterioro de su enfermedad obligó a Darwin a permanecer en cama. La habitación en la que guardaba reposo se encontraba repleta de ingeniosos experimentos para trazar los movimientos de las plantas trepadoras, y no dejó de recibir visitas de ilustres naturalistas. Entre ellos se encontraban Ernst Haeckel, un celoso seguidor del Darwinismus, una particular versión del darwinismo que favorecía la ortogénesis por encima de la selección natural, y Wallace, quien aunque siguió apoyando la teoría de Darwin, se convirtió progresivamente al espiritualismo. La primera parte del «gran libro» planeado por Darwin, y titulado Variación de las plantas y los animales en estado doméstico creció hasta convertirse en dos enormes volúmenes, obligándole a dejar de lado otros objetos de estudio como la evolución humana y la selección sexual. La obra se publicó en 1868 y a pesar de su extensión tuvo una amplia acogida, alcanzando un número considerable de ventas y siendo traducida a varios idiomas. Más tarde, Darwin escribió una segunda sección dedicada a la selección natural que sería publicada a título póstumo. En 1869, Darwin utilizó por primera vez la frase acuñada por Herbert Spencer: «la supervivencia del más apto», como sinónimo de la selección natural; en la quinta edición de El origen de las especies. El siguiente reto de Darwin tuvo por objeto la evolución humana. Lyell ya había popularizado el tema de la prehistoria, y por entonces Thomas Henry Huxley organizaba sesiones de anatomía en las que se comparaban cráneos de simios y humanos en distintos grados de desarrollo. Con El origen del hombre, y la selección en relación al sexo, publicado en 1871, Darwin ofreció múltiples pruebas que situaban al ser humano como una especie más del reino animal, mostrando la continuidad entre características físicas y mentales. Así mismo, expuso la teoría de la selección sexual como una explicación de determinadas características no adaptativas, como el plumaje de la cola del pavo real, así como la evolución cultural y las diferencias sexuales, raciales y culturales, al mismo tiempo que enfatizaba la pertenencia de todos los humanos a una misma especie. Su investigación fue ampliada en su siguiente libro: La expresión de las emociones en el hombre y los animales (1872), una de las primeras publicaciones acompañada de fotografías impresas, que discutía la continuidad de la psicología humana con la conducta animal. Ambos libros fueron enormemente populares y el mismo Darwin se declaró sorprendido de que «todo el mundo hablase de ello sin demostrar sorpresa alguna». Su conclusión fue que Sus experimentos e investigaciones sobre evolución culminaron en sus trabajos sobre el movimiento de plantas trepadoras y carnívoras, los efectos de la heterosis y la autofertilización vegetal, diferentes formas de flores en una misma especie de planta, y El poder del movimiento en las plantas. En su último libro, Darwin investigó el efecto de la presencia de lombrices en la formación del suelo. Murió en Downe, Kent (Inglaterra) el 19 de abril de 1882. Esperaba ser enterrado en el patio de la iglesia de St. Mary, en Downe, pero por petición de sus colegas, el presidente de la Royal Society, William Spottiswoode, convino un funeral de Estado en la Abadía de Westminster, donde fue enterrado junto a John Herschel e Isaac Newton. Solo cinco personas que no pertenecieran a la realeza tuvieron el honor de recibir un funeral semejante durante el . Publicaciones de Charles Darwin Bibliografía cronológica de Charles Darwin y traducciones al español Bibliografía sobre Charles Darwin en español Árbol genealógico Padre y abuelos paternos Erasmus Darwin, abuelo paterno de Charles Darwin, tuvo doce hijos fruto de dos matrimonios: uno contraído con Mary Howard en 1757 y el otro con Elizabeth Chandos-Pole en 1781. Del primer matrimonio nacieron cinco hijos, entre los que se encuentran Charles Darwin (tío con nombre homónimo) y Robert Darwin, padre de Charles Darwin. Del segundo matrimonio (no representado en el árbol genealógico) nacieron siete hijos, destacando a Frances Anne Violette Darwin, quien en 1807 se casó con Samuel Tertius Galton. Frances y Samuel tuvieron siete hijos, entre los que resalta Francis Galton, científico pionero en el estudio de las huellas dactilares y fundador de la eugenesia. Madre y abuelos maternos Josiah Wedgwood I, abuelo materno de Charles Darwin, contrajo matrimonio en 1764 con Sarah Wegdwood, abuela materna del mismo. De este matrimonio nacieron ocho hijos (cuatro varones y cuatro mujeres). Su primera hija fue Susannah Wedgwood, madre de Charles Darwin. Padres y hermanos Robert Waring Darwin y Susannah Wedgwood se casaron en 1796 y tuvieron 6 hijos. El quinto de ellos fue Charles Robert Darwin. Los hijos de Darwin El matrimonio Darwin tuvo diez hijos. Dos de ellos murieron en la infancia, y especialmente el fallecimiento de Anne Darwin con diez años dejó una huella indeleble en sus padres. Charles era un padre cariñoso y extraordinariamente atento con sus hijos. Cuando enfermaron siempre sospechó que la consanguinidad podía empeorar la tendencia genética a la enfermedad que él sufría desde su juventud. Estudió el tema en sus libros, contrastándolo con las ventajas asociadas al cruce entre muchos organismos. La mayoría de los hijos de Darwin tuvo carreras distinguidas logradas, en parte, gracias al honor de ostentar su ilustre apellido. George, Francis y Horace se convirtieron con el tiempo en miembros de la Royal Society, distinguidos así por sus trayectorias en astronomía, botánica e ingeniería, respectivamente. Su hijo Leonard, por otra parte, fue sucesivamente soldado, político, economista y estudioso de la eugenesia, además de maestro del estadístico y biólogo evolutivo Ronald Fisher. La teoría de Darwin: comunidad de descendencia y selección natural La explicación propuesta por Darwin del origen de las especies y del mecanismo de la selección natural, a la luz de los conocimientos científicos de la época, constituye un gran paso en la coherencia del conocimiento del mundo vivo y de las ideas sobre evolución presentes con anterioridad. Se trataba de una teoría compuesta por un amplio abanico de subteorías que ni conceptual ni históricamente fueron indisociables (véase el artículo dedicado a El origen de las especies para una revisión completa de todas ellas). Fundamentalmente, las dos grandes teorías defendidas en el Origen fueron, por un lado, la teoría del origen común o comunidad de descendencia, en la que se integran pruebas muy variadas en favor del hecho de la evolución, y, por otro, la teoría de la selección natural, que establece el mecanismo del cambio evolutivo. De este modo, Darwin pretendía resolver los dos grandes problemas de la historia natural: la unidad de tipo y las condiciones de existencia. Críticas a la teoría de la evolución y controversia Aunque menos controvertida que los Vestigios, la publicación de El origen de las especies atrajo un amplio interés internacional, provocando acalorados debates tanto en la comunidad científica como en la religiosa que se vieron reflejados en la prensa popular. En poco tiempo, el Origen se tradujo a varios idiomas, convirtiéndose en un texto científico fundamental cuya discusión implicó a multitud de sectores sociales, incluyendo a los «trabajadores» que acudían en masa a las lecciones magistrales de Huxley. A pesar de que su enfermedad le obligó a permanecer al margen de los debates públicos, Darwin estuvo siempre atento a todas las reacciones provocadas por su obra, como ilustra la activa correspondencia que mantuvo en aquellas fechas. En general, la aceptación de las tesis defendidas en el Origen atravesó dos etapas: una primera fase en la que, a lo largo de la segunda mitad del , el mundo victoriano comenzó a aceptar progresivamente la teoría de la evolución y una segunda, avanzado ya el , en la que el redescubrimiento de la herencia mendeliana posibilitó la aceptación de la teoría de la selección natural. En el ámbito popular, la reacción más recurrente, reflejada en las sátiras y caricaturas publicadas en los periódicos y revistas de la época, afectó a las consecuencias de la teoría de la evolución para la posición de la especie humana en la jerarquía animal. A pesar de que Darwin solo había afirmado que su teoría arrojaría nueva luz sobre la cuestión del origen del hombre, la primera reseña del Origen lo acusó de hacer un credo de la idea, en realidad sostenida en los Vestigios, según la cual el hombre procedía del mono. El vínculo genealógico entre el hombre y otros primates enfrentó también a la comunidad científica. Huxley, defensor de la evolución, y Richard Owen, cuyas objeciones a las tesis del Origen habían aglutinado a gran parte de los críticos de Darwin, mantuvieron un intenso debate durante dos años en torno a las similitudes y diferencias anatómicas entre los cerebros de humanos y primates. La campaña de Huxley tuvo un éxito devastador en el derrocamiento de Owen y la «vieja guardia». En relación con la publicación del Origen de las especies, gran parte de la comunidad cristiana hasta hoy en día rechaza la teoría darwiniana de la evolución, ya que la considera incompatible con el relato de la creación narrado en la Biblia, en el Libro de Génesis. No obstante, también surgieron ramas y denominaciones más liberales que la han incorporado a sus creencias. La reacción de la Iglesia de Inglaterra, por ejemplo, no fue unívoca. Los antiguos profesores de Darwin en Cambridge, Adam Sedgwick y John Stevens Henslow descartaron su teoría rotundamente. Sedgwick, en su momento, incluso llegó a declarar que la aceptación del público general del libro podría traer consigo «una brutalización de la raza humana, como nunca antes se haya visto». Contrariamente, algunos teólogos liberales como Charles Kingsley interpretaron la selección natural como un instrumento del diseño divino, En 1860, siete teólogos anglicanos publicaron la obra Essays and Reviews, en la que Baden Powell elogiaba la obra de Darwin por «apoyar el gran principio de los poderes autoevolutivos de la naturaleza». Asa Gray mantuvo largas discusiones teológicas con Darwin, quien importó y distribuyó su obra en defensa de la evolución teísta, titulada La selección natural no es inconsistente con la teología natural. Ese mismo año tuvo lugar en Oxford el célebre debate en torno a la evolución, durante un encuentro de la Asociación Británica para el Avance de la Ciencia. En él se enfrentaron filósofos, teólogos y científicos a favor y en contra de la teoría de Darwin. El obispo de Oxford, Samuel Wilberforce, aunque favorable a la evolución, se mostró contrario a la explicación darwinista de la transmutación de las especies. Entre los defensores de Darwin se encontraban Joseph Hooker y Thomas Huxley, llamado desde entonces el «bulldog de Darwin» por su feroz apoyo al darwinismo. Los amigos más cercanos de Darwin, Gray, Hooker, Huxley y Lyell, continuaron expresando ciertas reservas, pero le ofrecieron su apoyo, al igual que otros muchos naturalistas, especialmente los más jóvenes. Gray y Lyell buscaron la reconciliación de la evolución con la fe, mientras que Huxley planteó un enfrentamiento radical entre religión y ciencia, luchando contra la autoridad del clero en la educación y el control de la ciencia por parte de los clérigos y los aristócratas amateurs, encabezados por Owen, en defensa de una nueva generación de científicos profesionales. El 3 de noviembre de 1864, día en que la Royal Society concedía a Darwin la medalla Copley, Huxley organizó el primer encuentro del más tarde influyente Club X, dedicado a «la ciencia, pura y libre, liberada de dogmas religiosos». Entre las críticas científicas, uno de los escollos fundamentales para la aceptación de la evolución afectó a la edad de la Tierra, que según los cálculos de lord Kelvin era demasiado breve como para posibilitar la evolución gradual defendida en el Origen. Más tarde, la cuestión sería explicada con una teoría en relación con el descubrimiento de la radiactividad y su aplicación al fechado de la edad de la Tierra. El gradualismo defendido por Darwin en el Origen fue otra de las grandes fuentes de controversia, como Huxley le señaló en su célebre advertencia: «Se ha cargado usted a sí mismo con una dificultad innecesaria al adoptar el Natura non facit saltum de manera tan incondicional». Las objeciones al gradualismo se concentraron en dos cuestiones fundamentales: desde la paleontología, se señaló la ausencia de formas intermedias en el registro fósil, mientras que otros autores como Lyell y George Jackson Mivart insistieron en las dificultades asociadas a la evolución gradual de órganos complejos, arguyendo la inviabilidad de las etapas incipientes de estructuras que solo al haber alcanzado un alto grado de complejidad podrían resultar útiles. La aceptación de la teoría de la selección natural en otros círculos tomó mucho más tiempo. A pesar del reconocimiento de la evolución por diversos académicos, gran parte de la comunidad científica se resistió a aceptarla porque era un mecanismo de cambio no teleológico; y muchos continuaron defendiendo teorías alternativas como el lamarquismo, la ortogénesis o diversas formas de vitalismo, etc, como ilustran las objeciones de Eduard von Hartmann y Henri Milne-Edwards. Otros autores señalaron las inconsistencias lógicas internas a la propia teoría de la selección natural y derivadas del mecanismo hereditario postulado por Darwin. Si bien el Origen de las especies no se comprometió con ninguna teoría de la herencia, Darwin defendió la pangénesis o herencia por mezcla, la teoría más en boga en su época. A pesar de que ya en 1865 el monje Gregor Mendel había publicado sus estudios sobre las leyes de la herencia, su trabajo permaneció desconocido hasta el . Ocho años después de la aparición de El origen, Fleeming Jenkin y después Ronald Fisher señalaron la incompatibilidad entre el mecanismo de la selección natural y la pangénesis. Razonando desde la matemática estadística, Jenkin mostró la alta improbabilidad de que la variación, la selección y la transmisión de nuevas características pudiesen superar el efecto conservador de la herencia por mezcla, que hacía más probable que la descendencia se aproximase a la distribución media de la característica en la población que a sus progenitores, reduciendo la variación. En los años 1930 se presentó la tesis de la síntesis evolutiva moderna, la cual representa la visión actual mayoritaria sobre la evolución; esta integra la teoría de la evolución por selección natural, la herencia mendeliana, la mutación genética aleatoria como fuente de variación y los modelos matemáticos de la genética de poblaciones. Por otra parte, otros puntos de fuertes críticas contra la teoría de Darwin y su descripción de la naturaleza humana incluyen la relación de la teoría darwiniana con la eugenesia, el desarrollo del darwinismo social y la tesis de «la supremacía del más fuerte» como argumento para los países neoimperialistas europeos de imponer poder político en África y América. Además, existen otras controversias sociales respecto a la posible postura machista o sexista en la tesis de Darwin. En su libro El origen del hombre (1871), Darwin describe al sexo masculino con un cerebro «absolutamente más grande», con una «mente» y un «genio más inventivo», con una «eminencia» y un grado «superior» en comparación a la mujer: Se dice que dichos aspectos influyeron en la consolidación teórica de la eugenesia, ya que en el mismo libro, Darwin escribió: Otras críticas sobre la descripción darwiniana de la naturaleza humana, son señaladas por personajes como Hârun Yahya, entre otros que acusan los escritos darwinianos de tener múltiples tintes racistas que indudablemente sirvieron de inspiración para el darwinismo social, como el libro El origen del hombre, donde Darwin frecuentemente habló de «razas humanas», divididas en dos clases principales: 1) las «razas civilizadas», y 2) las «razas salvajes», entendidas estas últimas como los aborígenes australianos. Esto resalta cuando Darwin habla de la supuesta relación entre las facultades intelectuales y el tamaño del cerebro, y cita una clasificación craneométrica en la que se describe a los europeos con la mayor capacidad intelectual, mientras que describe a los asiáticos y aborígenes australianos con la menor capacidad: Así mismo, el autor dedica el capítulo 5 («Natural Selection as affecting Civilised Nations») a tratar la forma en la que él creía que la selección natural afectaba a lo que el llamaba las «naciones civilizadas», articulando los conceptos de «raza inferior» y «superior» a la vez que comenta lo que él consideraba como «obstáculos» importantes para el incremento numérico de «hombres de cualidades superiores»: En el mismo libro, escribió que en un futuro no muy distante, la exterminación de las «razas salvajes» del hombre generaría sin duda alguna un «estado más civilizado»: Múltiples representantes del movimiento eugenésico y el darwinismo social a nivel político tomaron como bases teóricas dichas ideas darwinianas. De hecho, varios de los hijos de Darwin destacaron como líderes del movimiento, y Darwin llegó a escribir sobre eugenesia activa. En 1911, su hijo Leonard se hizo presidente de la Sociedad Eugenésica, y en el mismo año, se formó un grupo eugenésico en Cambridge, en el cual, figuraban tres de los hijos de Darwin: Horance, Francis y George. Así mismo, se dice que Adolf Hitler y Benito Mussolini fueron seriamente influenciados por las implicaciones teóricas y metodológicas en la teoría eugenésica darwiniana. De hecho, en general, múltiples críticos a menudo vinculan la teoría evolutiva y la ideología del darwinismo social con la posterior generación de racismo, la creación del nacionalismo, la propagación de la política neoimperialista y parte de los pilares ideológicos del fascismo y el nazismo, que derivó en consecuencias fatales cuando se le dio aplicación política a la idea de la «supremacía del más fuerte». Durante la segunda mitad del , el darwinismo siguió recibiendo un profundo rechazo por parte de grupos religiosos, conservadores, etc, especialmente, del sector del fundamentalismo cristiano en Estados Unidos, quienes se oponían a que la teoría de la evolución fuera enseñada en las escuelas. Pensamiento religioso La tradición religiosa de la familia Darwin fue un irregular unitarismo, ya que su padre y su abuelo eran librepensadores, y, al mismo tiempo, su bautismo y su formación religiosa fueron anglicanas. En su época de Cambridge, Darwin se planteó convertirse en un clérigo anglicano, sin albergar ninguna duda sobre la verdad literal de la Biblia. Sin embargo, su relación con John Herschel, así como con la teología natural de William Paley, le hicieron adoptar un pensamiento crítico que buscaba explicaciones más allá del milagro o la teleología de la creación divina. En el viaje a bordo del HMS Beagle, Darwin aún buscaba «centros de creación» que justificasen la distribución de las especies. Así, por ejemplo, al ver hormigas león completamente similares en su Gran Bretaña natal y en Australia habló de «dos momentos de creación distintos» para justificar hechos como este. Aún seguía siendo bastante ortodoxo y citaba regularmente la Biblia como una autoridad moral. A su retorno, sin embargo, Darwin era mucho más crítico con el pensamiento creacionista, y se planteó por primera vez la posibilidad de que otras religiones, o incluso todas ellas, fuesen igualmente válidas. Los siguientes años, de intensa especulación en torno a cuestiones geológicas y a la transmutación de las especies, hicieron que se plantease muchas cuestiones relativas a la fe, y así lo discutía frecuentemente con Emma, su mujer, quien apoyaba su fe en un estudio y un cuestionamiento igualmente serios. La teodicea de Paley y la obra de Malthus abrían otro frente crítico al admitir el hambre o la extinción como efectos de una Creación que él suponía buena y perfecta. Aunque Darwin encontró convincente el argumento del relojero de Paley en su Natural Theology durante su juventud, más tarde con el desarrolló de su teoría de la evolución en su obra El origen de las especies (On the Origin of Species) de 1859 que ofrece una explicación alternativa del orden y complejidad biológica, como el ojo humano. En su Autobiografía, Darwin escribió que «el viejo argumento del diseño en la naturaleza, como lo presentó Paley, que antes me parecía tan concluyente, falla, ahora que la ley de la selección natural ha sido descubierta». Darwin admitió que estaba desconcertado sobre el problema del mal y del sufrimiento en la naturaleza, pero se inclinaba a creer que la naturaleza dependía de «inclinado a ver todo como resultado de leyes diseñadas, con los detalles, ya fuesen buenos o malos, dejados al trabajo de lo que podríamos llamar azar». El problema del mal extendido al sufrimiento de los animales también se le conoce como el problema darwiniano del mal. Para Darwin, la selección natural generaba de por sí esa «perfección», pero eliminaba la necesidad de un «diseño divino», al tiempo que comprometía el lugar de ese «Dios bondadoso» en la Creación, al observar cómo algunos organismos paralizaban a otros para convertirlos en comida viviente para sus crías. Sin embargo, consideraba la vida como un conjunto de organismos perfectamente adaptados, y en el Origen exponía algunos argumentos teológicos. Aunque por entonces consideraba la religión como un mecanismo estratégico de supervivencia, Darwin aún creía que, en último término, Dios era el «dador de vida». Elogió la afirmación de Asa Gray sobre «el gran servicio de Darwin a las Ciencias Naturales para devolverle la Teleología: de modo que, en lugar de Morfología versus Teleología, tendremos morfología unida a la teleología». En 1879, Darwin afirmó respecto a la relación entre la evolución biológica y la creencia en un Dios: Darwin continuó desarrollando un papel muy activo en las tareas de su parroquia, pero hacia 1849 comenzó a dedicar el tiempo que su familia pasaba en el templo a dar paseos en soledad. Aunque era reticente a manifestar su opinión sobre cuestiones religiosas, en 1873, Darwin respondió a un joven admirador neerlandés, Nicolaas Doedes, que "la imposibilidad de concebir que este universo grandioso y maravilloso, con nuestros seres conscientes, surgió por casualidad, me parece el principal argumento a favor de la existencia de Dios", pero también mostró sus dudas. "La conclusión más segura parece ser que todo el tema está más allá del alcance del intelecto del hombre; pero el hombre puede cumplir con su deber". En 1879 afirmó que nunca se había considerado un ateo, y que el término agnóstico «sería una descripción más correcta de mi mentalidad». En 1881, Darwin repitió una visión agnóstica similar. En 1880, Darwin escribió una carta a su abogado Francis McDermott, en que se declaraba ateo o no creyente ni en la Biblia ni en la divinidad de Jesucristo. La Historia de Lady Hope, publicada en 1915, describía cómo Darwin había vuelto al cristianismo en su lecho de muerte, aunque despertó las protestas de sus hijos y fue posteriormente refutada por historiadores. Sus últimas palabras fueron para su familia, diciéndole a su mujer Emma: «No tengo miedo de la muerte. Recuerda qué buena esposa has sido para mí. Dile a mis hijos que recuerden lo buenos que han sido todos conmigo». Entonces, mientras se apagaba, le decía repetidamente a Henrietta y Francis «Casi ha merecido la pena estar enfermo para recibir vuestros cuidados». Interpretaciones no biológicas de la evolución La teoría de Darwin tuvo inmediatas repercusiones éticas, morales y políticas, sirviendo de base para el desarrollo de la eugenesia y el darwinismo social. No obstante, la celebridad de Darwin ha hecho que su nombre sea asociado con ideologías que en algunas ocasiones defendió solo parcialmente, y otras están directamente enfrentadas con sus comentarios personales. Eugenesia Darwin estaba interesado en los argumentos de su medio primo Francis Galton, expuestos por primera vez en 1865, que afirmaban que los análisis históricos de la heredabilidad mostraban que los rasgos mentales y morales podían ser hereditarios, y que los principios de la cría animal se podían aplicar también a humanos. En el Origen del hombre Darwin apunta que si se ayuda a los débiles a sobrevivir y procrear se podrían perder los beneficios de la selección natural, pero advirtió que negar tal ayuda podría poner en peligro el instinto de solidaridad, «la parte más noble de nuestra naturaleza», y que factores como la educación podrían ser más importantes. Cuando Galton sugirió que la publicación de estas investigaciones podría incentivar los matrimonios entre los miembros de la «casta» de «aquellos que han sido mejor dotados por la naturaleza», Darwin previó algunas dificultades prácticas y pensó que era el «único procedimiento factible, aunque me temo que utópico de mejorar la raza humana», prefiriendo que solamente se diera publicidad a la importancia de la herencia y se dejaran las decisiones a los individuos. Tras la muerte de Darwin en 1883, Galton denominó eugenesia a la disciplina encargada de la mejora biológica de la especie humana, y desarrolló la biometría. Los movimientos eugenésicos ya estaban ampliamente extendidos cuando se redescubrió la genética mendeliana, y en algunos países, entre ellos Bélgica, Brasil, Canadá, Suecia y Estados Unidos, se impusieron leyes de esterilización obligatoria. La eugenesia nazi hizo perder crédito a la idea. Darwinismo social La utilización de leyes naturales como justificación de opciones morales o sociales está en el centro del problema ético de pasar del ser al deber ser. Así, cuando Thomas Malthus sostenía que el crecimiento de la población por encima de los recursos fue dispuesta por Dios para que los hombres trabajaran de forma productiva y se refrenaran a la hora de formar familias, su argumento fue utilizado en la década de 1830 para justificar las workhouses (asilos de pobres) y la economía basada en el laissez-faire. Del mismo modo, algunos autores vieron implicaciones sociales en la teoría de la evolución, y Herbert Spencer en su obra La estática social, escrito en 1851, basaba sus ideas de libertad humana y derechos individuales en la teoría evolutiva de Lamarck. La teoría de la evolución de Darwin se convirtió en una forma de justificación de las diferencias sociales y raciales. Aunque Darwin había dicho que era «absurdo hablar de que un animal fuera superior a otro», y concebía la evolución como carente de finalidad, poco después de la publicación del Origen en 1859 los críticos se mofaban de su descripción de la lucha por la existencia como una justificación maltusiana del capitalismo industrial inglés de la época. El término darwinismo fue usado en las ideas evolutivas de otros, entre ellos la aplicación del principio de «supervivencia del más adaptado» por Spencer en el progreso del libre mercado, y las ideas racistas de Ernst Haeckel del desarrollo humano. Darwin no compartía las ideas racistas, comunes en su época. Era un firme detractor de la esclavitud, la «clasificación de las llamadas razas del hombre como especies distintas» y los abusos contra los pueblos nativos. Algunos autores han empleado la selección natural como argumento para varias ideologías, a menudo contradictorias, como el capitalismo radical, el racismo, el belicismo, el colonialismo y el neoimperialismo. Al mismo tiempo, el enfoque holístico de la naturaleza sostenido por Darwin y que incluía la «dependencia de unos seres con otros» sirvió de fundamento a ideologías diametralmente opuestas: el pacifismo, el socialismo, el progresismo y el anarquismo, como en el caso del Príncipe Kropotkin, enfatizaron el valor de la cooperación sobre la lucha entre las especies. El mismo Darwin insistió en que la política social simplemente no podía guiarse por los conceptos de lucha por la supervivencia y selección natural. El término darwinismo social, acuñado por Herbert Spencer, no era muy frecuente en la última década del , pero se popularizó como una expresión despectiva en los años 1940 cuando fue empleado por William Graham Sumner, oponiéndose al reformismo y al socialismo. Desde entonces el término se utiliza para referirse peyorativamente a los que defienden las consecuencias morales de la evolución. Homenajes a Darwin Eponimia Unas 250 especies y varios grupos superiores llevan el nombre de Darwin; la mayoría son insectos. Darwinilus, un escarabajo errante Darwinius, un primate extinto Darwinopterus, un género de pterosaurio Darwinula, un género de camarones de semillas Darwinivelia, un género de pisadores de agua Darwinysius, un insecto de las semillas Darwinomya, un género de moscas Darwinella, un género de esponjas darwinsaurus, un dinosaurio Darwinhydrus, un escarabajo buceador darwini (múltiples especies) darwinii (múltiples especies) Ingerana charlesdarwini, una rana Especies botánicas (105 + 11 + 5 registros IPNI) (Asteraceae) Acmella darwinii (D.M.Porter) R.K.Jansen (Cactaceae) Maihueniopsis darwinii (Hensl.) F.Ritter (Coleóptera) Orunipus darwini Bréthes (Clusiaceae) Garcinia darwiniana Kesh.Murthy, Yogan. & K.V.Nair (Lycopodiaceae) Phlegmariurus darwinianus (Herter ex Nessel) B.Øllg. (Orchidaceae) Catasetum darwinianum Rolfe Astronomía Cráter Darwin en la Luna Cráter Darwin en Marte (1991) Darwin, asteroide del cinturón principal. Geografía Isla Darwin en Galápagos, Ecuador. Cráter Darwin en Tasmania, Australia. Monte Darwin y Cordillera de Darwin en Tierra del Fuego, Chile. Series Darwin Watterson, personaje ficticio de la serie de Cartoon Network, The Amazing World of Gumball Notas Referencias Bibliografía utilizada Edwards, A. W. F. 2004. Darwin, Leonard (1850–1943). En: Oxford Dictionary of National Biography, Oxford University Press Enlaces externos Enlaces en español Texto completo en 'pdf' El origen de las especies, en 3 tomos, Espasa Calpe, 1921, 'Biblioteca de traductores' traducción de Antonio de Zulueta Fundación Charles Darwin. Fundada en 1959 -UNESCO/Unión Mundial para la Conservación- Conservación de los ecosistemas de las islas Galápagos Página de la 'Sociedad Española de Biología Evolutiva' -2009 Año Darwin: eventos y publicaciones- Programa Tres14 que trata su bicentenario. Primeras ediciones de las obras digitalizadas en SOMNI Enlaces en inglés Obras completas de Charles Darwin en línea Obras en Dominio Público Obras en el Proyecto Gutenberg The Darwin Correspondence Online Database Sobre Darwin, el viaje en el Beagle y su época Obra de Darwin en línea Teóricos de la evolución humana Circunnavegantes Escritores sobre viajes del siglo XIX Etólogos del Reino Unido Psicólogos evolucionistas Escritores de divulgación científica Escritores de Inglaterra del siglo XIX Entomólogos de Inglaterra del siglo XIX Botánicos de Inglaterra del siglo XIX Carcinólogos del Reino Unido Coleopterólogos Geólogos de Inglaterra del siglo XIX Biólogos de Inglaterra del siglo XIX Naturalistas de Inglaterra del siglo XIX Exploradores de Inglaterra del siglo XIX Exploradores del océano Pacífico del Reino Unido Apicultores del Reino Unido Taxónomos de Inglaterra Agnósticos de Inglaterra Unitarios Escépticos Alumnado de la Universidad de Edimburgo Alumnado del Christ's College Miembros de la Real Academia de las Ciencias de Suecia Miembros de la Royal Society Miembros de la Leopoldina Pour le Mérite Miembros de la Sociedad Linneana de Londres Miembros de la Academia de las Ciencias de Turín Miembros de la Academia de Ciencias de Baviera Miembros de la Academia Nacional de Ciencias (Córdoba) Miembros de la Academia de Ciencias de Francia Miembros de la Accademia Nazionale dei Lincei Miembros de la American Philosophical Society Miembros de la Academia de Ciencias de Hungría Miembros correspondientes de la Academia de Ciencias de Hungría Miembros de la Academia Prusiana de las Ciencias Miembros de la Real Academia de Artes y Ciencias de los Países Bajos Secretarios de la Sociedad Zoológica de Londres Medalla Copley Medalla Real Medalla Wollaston Personas de la época victoriana Sepultados en la abadía de Westminster Personas que dan nombre a un asteroide
436_0
Ciclo de Krebs
El ciclo de Krebs (ciclo del ácido cítrico o ciclo de los ácidos tricarboxílicos) es una ruta metabólica, es decir, una sucesión de reacciones químicas, que forma parte de la respiración celular en todas las células aerobias, donde es liberada energía almacenada a través de la oxidación del acetilcoenzima A (acetil-CoA) derivado de glúcidos, lípidos y proteínas en dióxido de carbono y energía química en forma de adenosín trifosfato (ATP). En la célula eucariota, el ciclo de Krebs se realiza en la matriz mitocondrial. Además, el ciclo proporciona precursores de ciertos aminoácidos, así como el agente reductor nicotinamida adenina (NADH) que se utiliza en numerosas reacciones bioquímicas. Su importancia central para muchas vías bioquímicas sugiere que es uno de los primeros componentes establecidos del metabolismo celular y señala un origen abiogénico. En organismos aeróbicos, el ciclo de Krebs es parte de la vía catabólica que realiza la oxidación de glúcidos, ácidos grasos y aminoácidos hasta producir dióxido de carbono (CO2), liberando energía en forma utilizable: poder reductor y guanosina trifosfato (GTP), que algunos microorganismos se producen ATP. El metabolismo oxidativo de glúcidos, lípidos y proteínas frecuentemente se divide en tres etapas, de las cuales el ciclo de Krebs supone la segunda. En la primera etapa, los carbonos de estas macromoléculas dan lugar a acetil-CoA, e incluye las vías catabólicas de aminoácidos (p. ej. desaminación oxidativa), la beta oxidación de ácidos grasos y la glucólisis. La tercera etapa es la fosforilación oxidativa, en la cual el poder reductor (NADH y flavín adenín -FADH2-) generado se emplea para la síntesis de ATP según la teoría del acoplamiento quimiosmótico. El ciclo de Krebs también proporciona precursores para muchas biomoléculas, como ciertos aminoácidos. Por ello se considera una vía anfibólica, es decir, catabólica y anabólica al mismo tiempo. El nombre de esta vía metabólica se deriva del ácido cítrico (un tipo de ácido tricarboxílico) que se consume y luego se regenera por esta secuencia de reacciones para completar el ciclo, o también conocido como ciclo de Krebs ya que fue descubierto por el alemán Hans Adolf Krebs, quien obtuvo el Premio Nobel de Fisiología o Medicina en 1953, junto con Fritz Lipmann. Muchos de los componentes y reacciones del ciclo del ácido cítrico fueron establecidos en la década de 1930 por la investigación de Albert Szent-Györgyi, por la que recibió el Premio Nobel de Medicina o Fisiología en 1937, específicamente por sus descubrimientos relacionados con el ácido fumárico, un componente clave de esta ruta metabólica. El ciclo del ácido cítrico fue finalmente identificado en 1937 por Hans Adolf Krebs, en la universidad de Sheffield, por lo que recibió el Premio Nobel de Medicina o Fisiología en 1953. Evolución Los componentes del ciclo se derivaron de bacterias anaerobias, y el mismo ciclo posiblemente ha evolucionado más de una vez. Teóricamente, hay varias alternativas al ciclo del ácido cítrico, sin embargo, este ciclo parece ser el más eficiente. Si varias alternativas del ciclo de Krebs habían evolucionado independientemente, todas parecen haber convergido en esta ruta. Visión general El ciclo del ácido cítrico es una vía metabólica clave que unifica el metabolismo de los glúcidos, las grasas y las proteínas. Las reacciones del ciclo son llevadas a cabo por 8 enzimas que oxidan completamente el acetilo, en forma de acetil-CoA, y se liberan dos moléculas por cada una, de dióxido de carbono y agua. A través del catabolismo de azúcares, grasas y proteínas, se produce un acetilo de producto orgánico de dos carbonos en forma de acetil-CoA que entra en el ciclo de ácido cítrico. Las reacciones del ciclo también convierten tres equivalentes de nicotinamida adenina dinucleótido (NAD+) en tres de NAD+ reducido (NADH), un equivalente de flavina adenina dinucleótido (FAD) en una de FADH2, y un equivalente de guanosina difosfato (GDP) y fosfato inorgánico (Pi) en una de trifosfato de guanosina (GTP). El NADH y el FADH2 generados por el ciclo del ácido cítrico son a su vez utilizados por la vía de la fosforilación oxidativa para generar trifosfato de adenosina rico en energía (ATP). Una de las fuentes primarias de acetil-CoA es la descomposición de azúcares por glucólisis que producen ácido pirúvico que a su vez es descarboxilado por la enzima piruvato deshidrogenasa que genera acetil-CoA. El producto de esta reacción, acetil-CoA, es el punto de partida para el ciclo del ácido cítrico. El ciclo del ácido cítrico comienza con la transferencia de un grupo acetilo de dos carbonos de acetil-CoA al compuesto aceptor de cuatro carbonos (ácido oxaloacético/oxalacetato) para formar un compuesto de seis carbonos (citrato). El citrato pasa entonces por una serie de transformaciones químicas, perdiendo dos grupos carboxilo como CO2. Los carbonos perdidos como CO2 se originan de lo que fue oxaloacetato, no directamente de acetil-CoA. Los carbonos donados por acetil-CoA se convierten en parte de la columna vertebral de oxaloacetato de carbono después de la primera vuelta del ciclo de ácido cítrico. La pérdida de los carbonos donados con acetil-CoA como CO2 requiere varias vueltas del ciclo del ácido cítrico. Sin embargo, debido al papel del ciclo del ácido cítrico en el anabolismo, pueden no perderse, ya que muchos intermedios del ciclo TCA también se utilizan como precursores de la biosíntesis de otras moléculas. La mayor parte de la energía disponible por los pasos oxidativos del ciclo se transfiere como electrones ricos en energía a NAD+, formando NADH. Para cada grupo acetilo que entra en el ciclo del ácido cítrico, se producen tres moléculas de NADH. Los electrones también son transferidos al aceptor de electrones coenzima Q, formando QH2. Al final de cada ciclo, el oxaloacetato de cuatro carbonos ha sido regenerado, y el ciclo continúa. Reacciones del ciclo de Krebs El ciclo de Krebs tiene lugar en la matriz mitocondrial en la célula eucariota. El acetil-CoA es el principal precursor del ciclo. El ácido cítrico (6 carbonos) o citrato se obtiene en cada ciclo por condensación de un acetil-CoA (2 carbonos) con una molécula de oxaloacetato (4 carbonos). El citrato produce en cada ciclo una molécula de oxaloacetato y dos CO2, por lo que el balance neto del ciclo es: Acetil-coA + 3 NAD+ + FAD + GDP + Pi + 2 H2O → CoA-SH + 3 (NADH + H+) + FADH2 + GTP + 2 CO2 Los dos carbonos del acetil-CoA son oxidados a CO2, y la energía que tenía acumulada es liberada en forma de energía química: GTP y poder reductor (electrones de alto potencial): NADH y FADH2. NADH y FADH2 son coenzimas (moléculas que se unen a enzimas) capaces de acumular la energía en forma de poder reductor para su conversión en energía química en la fosforilación oxidativa. El FADH2 de la succinato deshidrogenasa (complejo II de la cadena transportadora de electrones), al no poder desprenderse de la enzima, debe oxidarse nuevamente in situ. El FADH2 cede sus dos hidrógenos a la ubiquinona (coenzima Q), que se reduce a ubiquinol (QH2) y abandona la enzima. Las reacciones son: Visión simplificada y rendimiento del proceso El paso final es la oxidación del ciclo de Krebs, produciendo un oxaloacetato y dos CO2. El acetil-CoA (2 carbonos) reacciona con una molécula de oxaloacetato (4 carbonos) para formar citrato (6 carbonos), mediante una reacción de condensación. A través de una serie de reacciones, el citrato se convierte de nuevo en oxaloacetato. Durante estas reacciones, se substraen 2 átomos de carbono del citrato (6C) para dar oxalacetato (4C); dichos átomos de carbono se liberan en forma de CO2 El ciclo consume netamente 1 acetil-coA y produce 2 CO2. También consume 3 NAD+ y 1 FAD, produciendo 3 NADH + 3 H+ y 1 FADH2. El rendimiento de un ciclo es (por cada molécula de piruvato): 1 GTP, 3 NADH +3H+, 1 FADH2, 2CO2. Cada NADH, cuando se oxide en la cadena respiratoria, originará 3 moléculas de ATP (3 x 3 = 9), mientras que el FADH2 dará lugar a 2 ATP. Por tanto, 11 ATP + 1 GTP = 12 Nucleótidos energéticos por cada acetil-CoA que ingresa en el ciclo de Krebs. Cada molécula de glucosa produce (vía glucólisis) dos moléculas de piruvato, que a su vez producen dos acetil-COA, por lo que por cada molécula de glucosa en el ciclo de Krebs se produce: 4CO2, 2 GTP, 22 ATP (por los 6 NADH + 6H +, 2 FADH2); total 24 Nucleótidos energéticos. Regulación Muchas de las enzimas del ciclo de Krebs son reguladas por retroalimentación negativa (feedback), por unión alostérica del ATP, que es un producto de la vía y un indicador del nivel energético de la célula. Entre estas enzimas, se incluye el complejo de la piruvato deshidrogenasa que sintetiza el acetil-CoA necesario para la primera reacción del ciclo a partir de piruvato (mediante una reacción irreversible), procedente de la glucólisis o del catabolismo de aminoácidos gluncogénicos (es decir, los 20 aminoácidos estándar exceptuando lisina y leucina). Esta enzima es regulada por inhibición, producto del NADH y acetil-CoA, y modificación covalente de la enzima por fosforilación. También las enzimas citrato sintasa, isocitrato deshidrogenasa y α-cetoglutarato deshidrogenasa, que catalizan las tres primeras reacciones del ciclo de Krebs, son inhibidas por altas concentraciones de ATP. Esta regulación frena este ciclo degradativo cuando el nivel energético de la célula es bueno. Algunas enzimas son también reguladas negativamente cuando el nivel de poder reductor de la célula es elevado. El mecanismo que se realiza es una inhibición competitiva por producto (por NADH) de las enzimas que emplean NAD+ como sustrato. Así se regulan, entre otros, los complejos piruvato deshidrogenasa y citrato sintasa. Eficiencia El rendimiento teórico máximo de ATP a través la oxidación de una molécula de glucosa en la glucólisis, ciclo del ácido cítrico, y la fosforilación oxidativa es treinta y ocho (suponiendo tres equivalentes molares de ATP por NADH equivalente y dos ATP por FADH2). En eucariotas, se generan dos equivalentes de NADH en la glucólisis, que se produce en el citoplasma. El transporte de estos dos equivalentes en la mitocondria consume dos equivalentes de ATP, reduciendo de este modo la producción neta de ATP a treinta y seis. Además, las ineficiencias en la fosforilación oxidativa debido a la fuga de protones a través de la membrana mitocondrial y el deslizamiento de la ATP sintasa/bomba de protones normalmente reduce la producción de ATP a partir de NADH y FADH2 por debajo del rendimiento máximo teórico. Los rendimientos observados son, por lo tanto, más cercanos a ~ 2,5 ATP por NADH y ~ 1,5 ATP por FADH2, reduciendo aún más la producción total neta de ATP a aproximadamente treinta. La evaluación del rendimiento total de ATP con recientemente revisado relaciones de protones a ATP proporciona una estimación de 29,85 ATP por molécula de glucosa. Principales vías que convergen en el ciclo de Krebs El ciclo de Krebs es una vía metabólica central en la que convergen otras, tanto anabólicas como catabólicas. Ingresan al ciclo por diferentes metabolitos: Acetil-CoA: Glucólisis Oxidación de ácidos grasos Producción de colágeno Malato: Gluconeogénesis (por acción de la enzima málica o malato deshidrogenasa dependiente de NADP+; esta enzima convierte el piruvato en malato empleando NADPH, CO2 y H2O). Oxalacetato: Oxidación y biosíntesis de aminoácidos Fumarato: Degradación de aspartato, fenilalanina y tirosina Succinil-CoA Biosíntesis de porfirina Degradación de valina isoleucina y metionina Oxidación de ácidos grasos Alfa-cetoglutarato Oxidación y biosíntesis de aminoácidos Citrato Biosíntesis de ácidos grasos y colesterol NADH y FADH Fosforilación oxidativa y cadena de transporte electrónico Véase también Descarboxilación oxidativa Ácido cítrico Glucólisis Fosforilación oxidativa Ciclo de Krebs inverso (reductor) Notas Referencias Enlaces externos Rap del ciclo de krebs (en español) Ciclo de Krebs explicacion paso a paso (Articulo para estudiantes) Animación sobre el ciclo de Krebs (castellano) CiclodeKrebs.com Información sobre el ciclo de Krebs An animation of the citric acid cycle (inglés) A more detailed tutorial animation (inglés) A citric-acid cycle self quiz flash applet (inglés) The chemical logic behind the citric acid cycle (inglés) Reacciones bioquímicas Respiración celular Mitocondria Fisiología del ejercicio Ciencia de 1937 Ciencia y tecnología de Alemania del siglo XX Alemania en 1937
437_0
Fotografía analógica
La fotografía analógica, de rollo o de carrete, también conocida como fotografía tradicional, argéntica o química, es el retrónimo con el que se describe al proceso fotográfico tradicional, que utiliza técnicas no digitales para producir imágenes, en comparación con la fotografía digital —de aparición más reciente—. Adicionalmente, este término sirve también para separar la fotografía que utiliza rollos de película, sustancias químicas y cuartos oscuros de fotografía mediante técnicas correspondientes al y primera mitad del , que se puede identificar como fotografía alternativa. Se basa habitualmente en un proceso físicoquímico que involucra el uso de un material fotosensible activo —aplicado sobre placas de vidrio o sobre una película flexible de material traslúcido, actualmente plástico— y su estabilización —revelado—, para la obtención y el procesado de las imágenes. La fotografía tradicional ha formado un importante cuerpo de conocimiento que incluye el correcto manejo de grados de sensibilidad de películas y papeles, el manejo de gran variedad de lentes, filtros y fuentes de luz, y la habilidad o cuidado de temperaturas, concentraciones y tiempos de uso con líquidos reveladores y fijadores. De todo esto existen tablas, fórmulas y recetas con números, volúmenes, temperaturas, tiempos y escalas. Proceso Película fotográfica Para la obtención de imágenes fotográficas se emplea un soporte conocido como película fotográfica, en donde el elemento sensible a la luz es el halogenuro de plata, el cual es el compuesto activo presente en la emulsión fotográfica; esta, a su vez, es un coloide en suspensión, sobre una base de gelatina muy pura. El tamaño y cantidad de los cristales de halogenuro de plata determinan la sensibilidad de la película, conocida también como velocidad —término que puede confundirse con la velocidad de obturación—, la cual está normalizada y se expresa en una escala de sensibilidad fotográfica estandarizada por la ISO. Cuando se abre el obturador por un breve instante, la luz que pasa por el objetivo incide sobre la película, y deja sobre ella la impresión de la imagen, que en este punto recibe el nombre de imagen latente; ésta se irá descomponiendo a partir de ese momento, hasta ser revelada. En realidad la luz da inicio a un proceso físicoquímico, produciendo un punto de sensibilidad en el compuesto, obteniendo así una imagen latente, lo que a la postre, cuando la película se sumerja en el revelador, mediante un proceso de reducción-oxidación, ocurrirá la descomposición del halogenuro en plata metálica negra, obteniéndose así una imagen visible. Obtención de la imagen A una película dada, de una determinada sensibilidad —100, 200, 400 ISO—, le corresponde una cierta cantidad de luz para conseguir la exposición correcta. Esta cantidad es lo que se llama EV ——. Cuanto mayor es la sensibilidad, menor cantidad de luz necesita. Así, por ejemplo, con películas de 6400 ISO, forzándolas a 60 000 ISO permiten fotografiar a una persona negra dentro de un saco en el interior de un túnel mal iluminado. Mientras que películas de 25 ISO permiten sacar fotos de la superficie del sol sin quemar por ello la película. Para obtener la correcta EV, las cámaras de fotos constan de diafragma y obturador. Por hacer una analogía entre el ojo y una cámara de fotos: Diafragma: Es el iris del ojo. Abriéndose más o menos, conseguimos que entre una determinada cantidad de luz. Obturador: Es el párpado del ojo. Teniéndolo más o menos tiempo abierto, obtenemos una mayor o menor incidencia de la luz en la película. Objetivo: Es el cristalino. Se encarga de enfocar la vista, de forma que los objetos salgan nítidos en la película Película: Es la retina. Donde se forman las imágenes que quedan en forma latente hasta que se revela la película. Mediante un exposímetro se mide la EV necesaria para esa película. Pongamos por caso que da una velocidad de 1/500 y diafragma 4. Ese EV es equivalente a subir la velocidad y bajar el diafragma, o bajar la velocidad y subir el diafragma. La velocidad suele ser expresada en 1 s; y el diafragma en «f» o fracciones de diámetro. Todos estos valores son el mismo EV para una determinada cantidad de luz. Por lo tanto, podemos elegir cualquier combinación de éstas para obtener una exposición correcta. Dependiendo de lo que queramos obtener. Si queremos que el campo nítido sea mayor, pondremos un diafragma más grande —5.6 f da mayor profundidad de campo nítido que 2.8 f— o si queremos paralizar el momento, pondremos una velocidad más alta —1/1000 s paraliza la imagen más que 1/250 s—. Se ha hablado por encima de «forzar» la película. Forzar la película es un procedimiento por el cual, usamos una película de sensibilidad determinada a una sensibilidad muy superior. Para ello ponemos de sensibilidad en la cámara la sensibilidad que queremos usar, y disparamos la cámara tranquilamente. A la hora de revelar, habrá que compensar esta sensibilidad aumentando la temperatura del revelador. Para ello, tendremos que ser nosotros mismos los que revelemos los carretes, ya que en las tiendas de revelado, todo el proceso va mecanizado y no se forzará la película. Revelado El proceso de revelado consta de dos pasos básicos: revelado y fijado, los cuales se dividen a su vez en pasos intermedios según el tipo de película a tratar. La imagen así obtenida tiene sus valores de luz invertidos respecto a la captura original, por lo cual se conoce a la película tratada como negativo. Una vez seca, de esta película o «negativo» se pueden hacer copias de la imagen sobre papel o bien sobre otra película, en cuyo caso obtendremos una diapositiva o positivo traslúcido, que nos permitirá observar la fotografía por proyección o transparencia. Las imágenes obtenidas, al invertir nuevamente los valores de luz, por ampliación o contacto, nos dan como resultado un «positivo». A este proceso se le llama positivado. Si utilizamos en la cámara una película especialmente tratada, para diapositivas, obtendremos las imágenes directamente en positivo al revelar la película. Formatos El formato más popular de película química es la película de 35 mm —también conocida como película 135—, utilizada en la mayoría de cámaras réflex y compactas hasta el final del . Después de dicho formato, los más populares son el formato medio —120, 220—, Polaroid —de revelado instantáneo—, y los grandes formatos —4x5 pulgadas, 5×7 pulgadas y 8×10 pulgadas principalmente—. Último formato en aparecer fue Advanced Photo System —conocido mejor por su acrónimo, APS—; Que permitía exponer su película en formatos C / H / P . Aunque posiblemente el menos popular de todos los formatos y sin embargo, sus dimensiones se usaron de base para los primeros sensores en fotografía digital. SLR hasta su evolución a Full Frame. Ventajas y desventajas Artículo principal: Film vs Digital Ventajas El tiempo y el gasto de la fotografía cinematográfica inculcan la artesanía y la paciencia. Dependiendo de la sensibilidad de la película se puede obtener un amplio rango de dinamismo. Una imagen impresa (no editable) puede ayudar como evidencia legal del sujeto fotografiado. En condiciones óptimas de procesamiento y almacenamiento, una película puede tener una duración por siempre jamás. Desventajas La fotografía cinematográfica necesita más tiempo y habilidad que la digital. La película es delicada y necesita un tratamiento cuidadoso, refrigeración, protección del sol, protección del polvo, etc. La película puede sufrir un deteriodo, como por ejemplo que se nublen las fotografías. El procesamiento de películas tiene un coste económico elevado. A veces se tiene que encontrar un laboratorio y se tiene que ampliar o escanearse. Véase también Película fotográfica Película de 35 mm Formato medio Referencias Bibliografía Enlaces externos Fotografía
440_0
Deporte
El deporte es todo tipo de actividades físicas que, mediante una participación, organizada o de otro tipo, tengan por finalidad la expresión o la mejora de la condición física y psíquica, en desarrollo de las relaciones sociales o el logro de resultados en competiciones de todos los niveles. Se diferencia del juego principalmente en la preparación y capacitación necesarias para su desarrollo, ya que el juego no requiere una preparación específica para su ejecución. No existe un consenso a la hora de establecer que requisitos debe reunir una actividad para ser considerada deporte, pero generalmente se acepta que el deporte implica algún grado de competición que requiere de una preparación y que su reglamentación está institucionalizada en federaciones deportivas. La mayoría de las definiciones lo vinculan también con la «actividad física», que aunque normalmente se asocia con el movimiento del cuerpo (ejercicio físico), es un concepto más amplio que engloba toda actividad destinada al mantenimiento del estado de salud del cuerpo físico, incluyendo la mente. Por tanto, podemos entender la actividad mental como parte de la actividad física (o actividad del cuerpo humano), no limitando dicho concepto únicamente a practicar ejercicio físico. De acuerdo con el Comité Olímpico Internacional, la práctica del deporte es un derecho humano, y uno de los principios fundamentales del Olimpismo es que «toda persona debe tener la posibilidad de practicar deporte sin discriminación de ningún tipo y dentro del espíritu olímpico, que exige comprensión mutua, solidaridad y espíritu de amistad y de juego limpio». Historia Existen utensilios y estructuras que sugieren que los chinos ya realizaban actividades deportivas hace 4000 años, entre 1066-771 a. C. La gimnasia parece haber sido un popular deporte en la Antigua China. Los monumentos a los emperadores indican que una cierta cantidad de deportes, incluyendo la natación y la pesca, fueron ya diseñados y regulados hace miles de años en el Antiguo Egipto. Otros deportes egipcios incluyen el lanzamiento de jabalina, el salto de altura y la lucha. Algunos deportes de la Antigua Persia como el arte marcial iraní de Zourkhaneh están ligados a las habilidades en la batalla. Entre otros deportes originales de Persia están el polo y la justa. Por otra parte, en América las culturas mesoamericanas como los mayas practicaban el llamado juego de pelota el cual a su vez era un ritual. Una amplia variedad de deportes estaba ya establecida en la época de la Antigua Grecia, y la cultura militar y el desarrollo de los deportes en Grecia se influyeron mutuamente. Para los griegos el deporte era una parte muy importante de su cultura, por lo que crearon los Juegos Olímpicos, una competición que se disputó desde el año 777 a. C. hasta el año 394 d. C. cada cuatro años en Olimpia, una pequeña población en el Peloponeso griego. En 1896 se celebraron los primeros Juegos Olímpicos de la era moderna, en Atenas, gracias a la iniciativa del barón Pierre de Coubertin de recuperar el espíritu de los antiguos Juegos añadiendo un carácter internacional. Los Juegos Olímpicos modernos, regulados por el Comité Olímpico Internacional (COI), se han convertido en el mayor evento deportivo internacional multidisciplinario, con más de 200 naciones participantes. Los deportes han visto aumentada su capacidad de organización y regulación desde los tiempos de la Antigua Grecia hasta la actualidad. La industrialización ha incrementado el tiempo de ocio de los ciudadanos en los países desarrollados, conduciendo a una mayor dedicación del tiempo a ver competiciones deportivas y más participación en actividades deportivas, facilitada por una mayor accesibilidad a instalaciones deportivas. Estas pautas continúan con la llegada de los medios de comunicación masivos. La profesionalidad en el deporte se convirtió en algo común conforme aumentaba la popularidad de los deportes y el número de aficionados que seguían las hazañas de los atletas profesionales a través de los medios de información. Desde la década de 1920 el fútbol, organizado por la FIFA, ha sido el deporte más practicado en Europa y América Latina. En la actualidad, muchas personas hacen ejercicio para mejorar su salud y modo de vida; el deporte se considera una actividad saludable que ayuda a mantenerse en forma psicológica y físicamente, especialmente en la tercera edad. Significado y uso Etimología La palabra "deporte" procede del francés antiguo desport que significa "ocio", siendo la definición más antigua en inglés, de alrededor de 1300, "cualquier cosa que los humanos encuentren divertida o entretenida". Otros significados incluyen los juegos de azar y los eventos organizados con el propósito de apostar; la caza; y los juegos y diversiones, incluyendo los que requieren ejercicio. Roget's define el sustantivo sport como una "actividad realizada para la relajación y la diversión" con sinónimos que incluyen la diversión y la recreación. Nomenclatura El término singular "sport" se utiliza en la mayoría de los dialectos ingleses para describir el concepto general (por ejemplo, "children taking part in sport"), y "sports" se utiliza para describir múltiples actividades (por ejemplo, "football and rugby are the most popular sports in England"). El inglés americano utiliza "sports" para ambos términos. Definición La definición precisa de lo que separa un deporte de otras actividades de ocio varía según las fuentes. Lo más parecido a un acuerdo internacional sobre una definición lo proporciona SportAccord, que es la asociación de todas las federaciones deportivas internacionales más importantes (incluyendo el fútbol de asociación, el atletismo, el ciclismo, el tenis, la deportes ecuestres, y más), y es, por tanto, el representante de facto del deporte internacional. SportAccord utiliza los siguientes criterios, determinando que un deporte debe: tener un elemento de competición no ser perjudicial para ningún ser vivo no depender del equipamiento suministrado por un único proveedor (excluyendo los juegos patentados como el fútbol playa) no depender de ningún elemento de "suerte" específicamente diseñado en el deporte. También reconocen que el deporte puede ser principalmente físico (como rugby o atletismo), principalmente mental (como ajedrez o Go), predominantemente motorizado (como Fórmula 1 o motonáutica), principalmente de coordinación (como deportes de billar), o principalmente con animales, como deportes ecuestres. La inclusión de los deportes mentales dentro de las definiciones de deporte no ha sido aceptada universalmente, lo que ha dado lugar a desafíos legales por parte de los órganos de gobierno en lo que respecta a la denegación de la financiación disponible para los deportes. Aunque SportAccord reconoce un pequeño número de deportes mentales, no está abierto a admitir más deportes mentales. Ha aumentado la aplicación del término "deporte" a un conjunto más amplio de retos no físicos como los videojuegos, también llamados esports (de "deportes electrónicos"), especialmente debido a la gran escala de participación y competición organizada, pero éstos no están ampliamente reconocidos por las organizaciones deportivas convencionales. Según el Consejo de Europa, Carta Europea del Deporte, artículo 2.i, Se entiende por deporte toda forma de actividad física que, mediante una participación casual u organizada, tiene por objeto expresar o mejorar la aptitud física y el bienestar mental, formar relaciones sociales u obtener resultados en la competición a todos los niveles. Competición Existen opiniones opuestas sobre la necesidad de la competición como elemento definitorio de un deporte, ya que casi todos los deportes profesionales implican la competición, y los organismos rectores exigen la competición como requisito previo para el reconocimiento por parte del Comité Olímpico Internacional (COI) o SportAccord. Otros organismos abogan por ampliar la definición de deporte para incluir toda la actividad física. Por ejemplo, el Consejo de Europa incluye todas las formas de ejercicio físico, incluidas las que se compiten solo por diversión. Para ampliar la participación y reducir el impacto de la pérdida en los participantes menos capacitados, se ha introducido la actividad física no competitiva en eventos tradicionalmente competitivos como el «día del deporte» escolar, aunque este tipo de medidas suelen ser controvertidas. En los eventos competitivos, los participantes se califican o clasifican en función de su "resultado" y a menudo se dividen en grupos de rendimiento comparable, (por ejemplo, sexo, peso y edad). La medición del resultado puede ser objetiva o subjetiva, y se corrige con "hándicaps" o penalizaciones. En una carrera, por ejemplo, el tiempo para completar el recorrido es una medida objetiva. En gimnasia o submarinismo el resultado lo decide un panel de jueces, y por tanto es subjetivo. Hay muchos matices entre el boxeo y las artes marciales mixtas, donde la victoria es asignada por los jueces si ninguno de los competidores ha perdido al final del tiempo del combate. Deporte profesional El aspecto de entretenimiento del deporte, junto al crecimiento de los medios de comunicación y el incremento del tiempo de ocio, han provocado que se profesionalice el mundo del deporte. Esto ha conducido a cierta polémica, ya que para el deportista profesional puede llegar a ser más importante el dinero o la fama que el propio acto deportivo en sí. Al mismo tiempo, algunos deportes han evolucionado para conseguir mayores beneficios o ser más populares, en ocasiones perdiéndose algunas valiosas tradiciones. El fútbol en Europa y América Latina, o el fútbol americano, el baloncesto y el béisbol en EE.UU., son ejemplos de deportes que mueven al año enormes cantidades de dinero. Esta evolución conduce a un aumento de la competitividad, dado que la lucha por la victoria adquiere otro significado al incluirse también el apartado económico. Este aumento, asimismo, lleva a la aparición de un importante lado negativo de la profesionalidad, incluyendo el uso de diversas argucias o trampas como la práctica del dopaje por parte de los deportistas. El mundo del deporte como espectáculo mueve anualmente una cantidad cercana a los 70 000 millones de euros (datos de 2014), entre venta de entradas, derechos televisivos y patrocinios. Si se incluyen aquellos consumos relacionados con la práctica del deporte, como material y ropa deportivos, equipamientos, y gastos en salud y forma física, la industria del deporte genera cada año a nivel global cerca de 600 000 millones de euros. Según los datos de audiencia, los torneos más seguidos en el mundo son los Juegos Olímpicos de Verano, la Copa Mundial de Fútbol y Copa del Mundo de Rugby, pero anualmente son la Liga de Campeones de la UEFA, la Liga Nacional de Fútbol Americano, Primera División de España, Premier League y la Asociación Nacional de Baloncesto. Arte físico Los deportes comparten un alto grado de afinidad con el arte. Disciplinas como el patinaje artístico sobre hielo o el taichí, son deportes muy cercanos a espectáculos artísticos en sí mismos. Actividades tradicionales como la gimnasia y el yoga, más recientes como el culturismo, y . El hecho de que el arte sea tan cercano al deporte en algunas situaciones está probablemente relacionado con la naturaleza de los deportes. La definición de deporte establece la idea de ejecutar una actividad no solo para el propósito habitual; por ejemplo, no correr solo para llegar a alguna parte, sino correr por propia voluntad, con el fin de mantener el estado físico. Esto es similar a una visión común de la estética, que contempla los objetos más allá de su utilidad. Por ejemplo, valorar un coche no por llevarnos de un sitio a otro, sino por su forma, figura, etc. Del mismo modo, una actividad deportiva como el salto no se valora solo como un modo efectivo de evitar obstáculos; también cuentan la habilidad, la destreza y el estilo. Tecnología Salud: La tecnología se encuentra presente desde la nutrición hasta el tratamiento de lesiones, incrementando el potencial del deportista. Los atletas contemporáneos son capaces de practicar deporte a mayores edades, recuperarse más rápidamente de lesiones y entrenar de forma más efectiva que en generaciones anteriores. Un aspecto negativo de la tecnología aplicada al deporte consiste en el diseño y consumo de sustancias dopantes, las cuales mejoran el rendimiento del deportista hasta muy altos niveles, en ocasiones llegando a afectar seriamente a la salud del mismo, pudiendo ocasionar daños irreversibles en el cuerpo o incluso la muerte. Por esta razón, en un gran número de deportes, dichas sustancias están prohibidas por los distintos órganos reguladores del deporte a nivel profesional, pudiendo significar su consumo la descalificación o la inhabilitación del infractor. Instrucción: Los avances de la tecnología han creado nuevas oportunidades en la investigación deportiva. Ahora es posible analizar aspectos del deporte que antes se encontraban fuera del alcance de nuestra comprensión. Técnicas como la captura de movimientos o las simulaciones por ordenador han incrementado el conocimiento acerca de las acciones de los atletas y el modo en que estas pueden mejorarse. Las mejoras en tecnología también han servido para mejorar los sistemas de entrenamiento, en ocasiones asistidas por máquinas diseñadas para tal efecto. Caso práctico se encuentra en el ciclismo. Equipamiento: En ciertas categorías deportivas, el deportista se vale de diverso instrumental para llevar a cabo la actividad, así como los bates empleados en béisbol o los balones usados en fútbol o baloncesto. Todos ellos han visto cómo sus características han ido variando con el paso de los años para mejorar el rendimiento deportivo, alterándose factores como la dureza o el peso de los mismos. Asimismo, en algunos deportes de contacto físico se hace necesario el uso de equipo protector por parte del deportista, como por ejemplo en fútbol americano. Estas protecciones también han ido evolucionando con el paso de los años y la propia evolución de la tecnología, dirigiéndose hacia elementos más cómodos y seguros para la práctica deportiva. Deporte y sociedad El deporte tiene una gran influencia en la sociedad; destaca de manera notable su importancia en la cultura y en la construcción de la identidad nacional. En el ámbito práctico, el deporte tiene efectos tangibles y predominantemente positivos en las esferas de la educación, la economía y la salud pública. La influencia del deporte en nuestra sociedad es enorme. Hoy en día, la práctica deportiva ha establecido gran parte del tiempo de ocio de las personas, tanto si son espectadores como actores del deporte. El deporte es un fenómeno complejo que funciona como instancia de sociabilidad, alimenta el imaginario y las pasiones colectivas, genera sobresaltos de nacionalismo, moviliza ingentes capitales y se presta para la instrumentalización. Refleja las tendencias sociales del momento histórico en cual se enmarca, configurándose y funcionando como un sistema social completo: es un fenómeno tan relevante a nivel social que contiene elementos característicos de la sociedad en sí misma y pone en movimiento la totalidad de las instituciones de la sociedad. En el terreno educativo, el deporte juega un papel de transmisión de valores a niños, adolescentes e incluso adultos. En conjunción con la actividad física se inculcan valores de respeto, responsabilidad, compromiso y dedicación, entre otros, sirviendo a un proceso de socialización y de involucración con las mejoras de las estructuras y actitudes sociales. El deporte contribuye a establecer relaciones sociales entre diferentes personas y diferentes culturas y así contribuye a inculcar la noción de respeto hacia los otros, enseñando cómo competir constructivamente, sin hacer del antagonismo un fin en sí. Otro valor social importante en el deporte es el aprendizaje de cómo ganar y cómo saber reconocer la derrota sin sacrificar las metas y objetivos. En el apartado económico, la influencia del deporte es indudable, debido a la cantidad de personas que practican el deporte así como las que lo disfrutan como espectáculos de masas, haciendo de los deportes importantes negocios que financian a los deportistas, agentes, medios, turismos y también indirectamente, a otros sectores de la economía. Tiende a regirse cada vez más por las leyes del mercado, propias de una sociedad de masas, que influyen de manera trascendente, no solo en el ámbito político, económico y social, sino también en los demás modelos del deporte contemporáneo. La práctica del deporte eleva también el bienestar y la calidad de vida de la sociedad por los efectos beneficiosos de la actividad física, tanto para la salud corporal como la emocional; las personas que practican deporte y otras actividades no sedentarias con regularidad suelen sentirse más satisfechos y experimentan, subjetivamente, un mayor bienestar. La utilización del deporte como mecanismo para lograr desarrollo e inclusión social, está ampliamente difundido en todo el mundo, aun cuando la evidencia rigurosa sobre la efectividad de este tipo de intervenciones es escasa. En este contexto, la Corporación Andina de Fomento ha llevado a cabo una agenda de investigación cuyo objetivo es lograr un mejor entendimiento del potencial de la práctica regular del fútbol como vía para fomentar el desarrollo y la acumulación de habilidades en niños y jóvenes. Para ello, realizaron dos estudios, uno en Colombia y otro en Perú, que contaron ambos con una muestra superior a 1600 jóvenes. Los resultados de ambas evaluaciones permiten concluir que los programas de fútbol para el desarrollo podrían ser beneficiosos, siempre que se ponga atención a la manera en cómo se implementen y en quiénes se focalicen. De lo contrario, pueden ocasionar efectos negativos en los beneficiarios, especialmente problemas de conducta y agresividad. En este sentido, estos programas tienen el potencial de generar cambios positivos sobre dimensiones socioemocionales y cognitivas cuando se implementan bajo entornos de baja competencia. Por último, el máximo potencial de estos programas, en el corto plazo, se obtiene cuando se focalizan en niños de 8 a 13 años. El fenómeno del deporte como representación de la sociedad puede explicar su importancia como espectáculo. En este rol, los encuentros deportivos sirven para afirmar el valor y las aptitudes físicas no solo de los jugadores, sino de la comunidad a la que representan. Es común que los resultados en las competiciones internacionales sean interpretados como una validación de la cultura y hasta del sistema político del país al que representan los deportistas. Este aspecto del deporte puede tener efectos negativos, como estallidos de violencia durante o tras las competiciones. Por otro lado, el deporte es considerado como un medio para disminuir la violencia y delincuencia en la sociedad. Popularidad Los 10 deportes más populares del mundo atendiendo al número de seguidores con los que cuentan: Véase también Campeonato mundial Deporte femenino Fisioterapia del deporte Historieta deportiva Equipo de protección individual Clasificación mundial de las grandes naciones del deporte Juegos Olímpicos Deportes de salón Deportes electrónicos Referencias Bibliografía Corriente, Federico y Jorge Montero: Citius, altius, fortius. El libro negro del deporte. Pepitas de Calabaza, 2011. Estadella, Antonio Franco: Deporte y sociedad. México: Salvat, 1974. ISBN 84-345-7436-5. Desiderio, WA y col. Deporte, educación y salud. Revista de la Asociación Médica Argentina 134 (3): 8-14, 2021. ISSN 0004-4830. Enlaces externos
445_0
Densidad
En física y química, la densidad (del latín, densĭtas, -ātis) es una magnitud escalar referida a la cantidad de masa en un determinado volumen de una sustancia o un objeto sólido. Usualmente, se simboliza mediante la letra ro (ρ) del alfabeto griego. Historia Según una historia popular, Arquímedes recibió el encargo de determinar si el orfebre de Hierón II de Siracusa había desfalcado el oro durante la fabricación de una corona dedicada a los dioses, sustituyéndolo por otro metal más barato (proceso conocido como aleación). Arquímedes sabía que la corona, de forma irregular, podría ser aplastada o fundida en un cubo cuyo volumen se podía calcular fácilmente comparado con la masa. Pero el rey no estaba de acuerdo con este método, pues hubiera supuesto la destrucción de la corona. Arquímedes se dio un relajante baño de inmersión, y observando la subida del agua caliente cuando él entraba en ella, descubrió que podía calcular el volumen de la corona de oro mediante el desplazamiento del agua. Hallado el volumen, se podía multiplicar por la densidad del oro hallando el peso que debería tener si fuera de oro puro (la densidad del oro es muy alta, kg/m³, y cualquier otro metal, aleado con él, la tiene menor), luego si el peso no fuera el que correspondería si fuera de oro, significaría que la corona tendría aleación de otro metal. Supuestamente, al hacer este descubrimiento salió corriendo desnudo por las calles gritando: «¡Eureka! ¡Eureka!» (Εύρηκα! en griego, que significa: ‘!Lo encontré!’). Como resultado, el término «eureka» entró en el lenguaje común, y se utiliza hoy para indicar un momento de iluminación. La historia apareció por primera vez de forma escrita en De Architectura, de Marco Vitruvio, dos siglos después de que supuestamente tuviese lugar. Sin embargo algunos estudiosos han dudado de la veracidad de este relato, argumentando (entre otras cosas) que el método habría exigido medidas exactas que hubieran sido difíciles de hacer en ese momento. Otra versión de la historia dice que Arquímedes notó que experimentaba un empuje hacia arriba al estar sumergido en el agua, y pensó que pesando la corona, sumergida en agua, y en el otro platillo de la balanza poniendo el mismo peso en oro, también sumergido, la balanza estaría equilibrada si la corona era, efectivamente, de oro. Ciertamente, el empuje hacia arriba del agua sería igual si en los dos platillos había objetos del mismo volumen y el mismo peso. Con ello, la dificultad de conocer con exactitud el volumen del sólido de forma irregular, en la época, se dejaba de lado. De esta otra versión nació la idea del principio de Arquímedes. Mucho más tarde, nació el concepto de densidad entre los científicos, en tiempos en que las unidades de medida eran distintas en cada país. Para evitar expresarlo en términos de las diversas unidades de medida usuales para cada cual, y no tener que hacer las necesarias conversiones, los físicos asignaron a cada materia un número, adimensional, que era la relación entre la masa de esa materia y la de un volumen igual de agua pura, sustancia que se encontraba en cualquier laboratorio (densidad relativa). Cuando se fijó la unidad de peso en el sistema métrico decimal, el kilogramo, como un decímetro cúbico (un litro) de agua pura, la cifra empleada hasta entonces, coincidió con la densidad absoluta (si se mide en kilogramos por litro, unidad de volumen en el viejo sistema métrico decimal, aunque aceptada por el SI, y no en kilogramos por metro cúbico, que es la unidad de volumen en el SI). Tipos de densidad Densidad absoluta La densidad absoluta es la magnitud que expresa la relación entre la masa y el volumen de una sustancia o un objeto sólido . Su unidad en el Sistema Internacional es kilogramo por metro cúbico (kg/m³), aunque frecuentemente también es expresada en g/cm³. La densidad es una magnitud intensiva. Densidad relativa La densidad relativa de una sustancia es la relación existente entre su densidad y la de otra sustancia de referencia; en consecuencia, es una magnitud adimensional (sin unidades) Para los líquidos y los sólidos, la densidad de referencia habitual es la del agua líquida a la presión de 1atm y la temperatura de 4°C. En esas condiciones, la densidad absoluta del agua destilada es de 1000kg/m³, es decir, 1kg/dm³. Para los gases, la densidad de referencia habitual es la del aire a la presión de 1 atm y la temperatura de 0°C. Densidad media y densidad puntual Para un sistema homogéneo, la expresión masa/volumen puede aplicarse en cualquier región del sistema obteniendo siempre el mismo resultado. Sin embargo, un sistema heterogéneo no presenta la misma densidad en partes diferentes. En este caso, hay que medir la "densidad media", dividiendo la masa del objeto por su volumen o la "densidad puntual" que será distinta en cada punto, posición o porción "infinitesimal" del sistema, y que vendrá definida por: Sin embargo, debe tenerse en cuenta que las hipótesis de la mecánica de medios continuos solo son válidas hasta escalas de , ya que a escalas atómicas la densidad no está bien definida. Por ejemplo, el tamaño del núcleo atómico es aproximadamente de y en él se concentra la inmensa mayor parte de la masa atómica, por lo que su densidad (2,3·1017kg/m³) es muy superior a la de la materia ordinaria. Es decir, a escala atómica la densidad dista mucho de ser uniforme, ya que los átomos están esencialmente vacíos, con prácticamente toda la masa concentrada en el núcleo atómico. Densidad aparente La densidad aparente es una magnitud aplicada en materiales de constitución heterogénea, y entre ellos, los porosos como el suelo, los cuales forman cuerpos heterogéneos con intersticios de aire u otra sustancia, de forma que la densidad total de un volumen del material es menor que la densidad del material poroso si se compactase. En el caso de un material mezclado con aire se tiene: La densidad aparente de un material no es una propiedad intrínseca del material y depende de su compactación. La densidad aparente del suelo () se obtiene secando una muestra de suelo de un volumen conocido a 105°C hasta peso constante. Se debe considerar que para muestras de suelo que varíen su volumen al momento del secado, como suelos con alta concentración de arcillas 2:1, se debe expresar el contenido de agua que poseía la muestra al momento de tomar el volumen. En construcción se considera la densidad aparente de elementos de obra, como por ejemplo de un muro de ladrillo, que contiene ladrillos, mortero de cemento o de yeso y huecos con aire (cuando el ladrillo es hueco o perforado). Cambios de densidad En general, la densidad de una sustancia varía cuando cambia la presión o la temperatura, y en los cambios de estado. En particular se ha establecido empíricamente: Cuando aumenta la presión, la densidad de cualquier material estable también aumenta, notablemente en los gases, casi inapreciablemente en líquidos y sólidos. Como regla general, al aumentar la temperatura, la densidad disminuye (si la presión permanece constante). Sin embargo, existen notables excepciones a esta regla. Por ejemplo, la densidad del agua crece entre el punto de fusión (a 0°C) y los 4°C; algo similar ocurre con el silicio a bajas temperaturas. De manera práctica y dependiendo del tipo de problema que se esté solucionando, para los líquidos y sólidos se puede considerar la densidad constante. Esto es debido a que las variaciones que presentan en cuanto a dilatarse o contraerse debido a cambios de presión y/o temperatura son relativamente pequeños. El efecto de la temperatura y de la presión en los sólidos y líquidos es muy pequeño, por lo que típicamente la compresibilidad de un líquido o sólido es de 10−6bar−1 (1bar=0,1MPa) y el coeficiente de dilatación térmica es del orden de 10−5K−1 Las consideraciones anteriores llevan a que una ecuación de estado para una sustancia ordinaria debe satisfacer las siguientes restricciones: Por otro lado, la densidad de los gases se ve notablemente afectada por la presión y la temperatura. La ley de los gases ideales describe matemáticamente la relación entre estas tres magnitudes: donde es la constante universal de los gases ideales, es la presión del gas, su masa molar y la temperatura absoluta. Eso significa que un gas ideal a 300K (27°C) y 1atm duplicará su densidad si se aumenta la presión a 2atm manteniendo la temperatura constante o, alternativamente, se reduce su temperatura a 150K manteniendo la presión constante. Como puede comprobarse las relaciones también se satisfacen en Medición La densidad puede obtenerse de forma indirecta y de forma directa. Para la obtención indirecta de la densidad, se miden la masa y el volumen por separado y posteriormente se calcula la densidad. La masa se mide habitualmente con una balanza, mientras que el volumen puede medirse determinando la forma del objeto y midiendo las dimensiones apropiadas o mediante el desplazamiento de un líquido, entre otros métodos. Los instrumentos más comunes para medir la densidad son: El densímetro, que permite la medida directa de la densidad de un líquido. El picnómetro, que permite la medida precisa de la densidad de sólidos, líquidos y gases (picnómetro de gas). La balanza hidrostática, que permite calcular densidades de sólidos. La balanza de Mohr (variante de balanza hidrostática), que permite la medida precisa de la densidad de líquidos. Otra posibilidad para determinar las densidades de líquidos y gases es utilizar un instrumento digital basado en el principio del tubo en U oscilante. Cuyo frecuencia de resonancia está determinada por los materiales contenidos, como la masa del diapasón es determinante para la altura del sonido Unidades Las unidades de medida más usadas son: En el Sistema Internacional de Unidades (SI): kilogramo por metro cúbico (kg/m³). Otras unidades para expresar la densidad son: gramo por centímetro cúbico (g/cm³). kilogramo por litro (kg/L) o kilogramo por decímetro cúbico. La densidad del agua es aproximadamente 1kg/L (1000g/dm³ = 1g/cm³ = 1g/mL). gramo por mililitro (g/mL), que equivale a (g/cm³). Para los gases suele usarse el gramo por decímetro cúbico (g/dm³) o gramo por litro (g/L), con la finalidad de simplificar con la constante universal de los gases ideales: En el Sistema anglosajón de unidades: onza por pulgada cúbica (oz/in³) libra por pulgada cúbica (lb/in³) libra por pie cúbico (lb/ft³) libra por yarda cúbica (lb/yd³) libra por galón (lb/gal) libra por bushel americano (lb/bu) slug. Densidad de los elementos químicos Densidad de los elementos químicos en condiciones de laboratorio, expresadas en g·cm−3 (los elementos de una densidad mayor que la del osmio o el iridio solo tienen una densidad teóricaː los elementos radiactivos super-pesados se producen en cantidades demasiado bajas o se desintegran demasiado rápidamente para permitir la medición): Densidad de los elementos en su punto de fusión en g·cm−3ː Véase también Referencias Bibliografía Schackelford, J. F. Introducción a la ciencia de los materiales para ingenieros, 6.ª ed., 2008. ISBN 978-84-205-4451-9. Enlaces externos Densidad Mecánica de medios continuos
446_0
Didáctica
La palabra didáctica procede del griego antiguo διδάσκειν (didáskein), que signiifica enseñar, instruir. Para los griegos, la enseñanza era a la vez arte y ciencia. Actualmente, se entiende que el objeto de la didáctica es estudiar los procesos de enseñanza / aprendizaje. La palabra didáctica (fue empleada por primera vez relacionada con la enseñanza en 1629, por el alemán Wolfgang Ratked en su libro (redactado en latín) Aphorisma Didactici Precipui o sea Principales Aforismos Didácticos. Juan Amós Comenio también realizó su aporte en la búsqueda por encontrar una definición al significado de Didáctica. La definió como "el artificio fundamental para enseñar todo a todos, enseñar con solidez, no superficialmente, no con meras palabras, sino encaminando al discípulo a las verdaderas, a las suaves costumbres". Distinción entre didáctica y pedagogía Herbart (1935) se refirió a la Didáctica como el resultado del estudio científico o de la combinación entre la enseñanza y la instrucción y consideró a la primera como la vía para golpear para lograr lo instructivo y a la última como medio de concreción de la educación. Aebli (1958) escribió que la Didáctica es una ciencia auxiliar y aplicada de la Pedagogía para la realización de tareas educativas que tienen como finalidad deducir el conocimiento psicológico de los procesos de formación intelectual y revelar las técnicas metodológicas más adecuadas para el desarrollo de tal proceso. Desde este punto de vista no se establecen límites entre Pedagogía, Didáctica y metodología; son lo mismo. Gottler (1962) refirió que la Didáctica es una teoría cuyo centro de atención es la instrucción educativa. La conceptualiza como ciencia, pero con un carácter especulativo. Alves (1962) considera que la Didáctica es la disciplina pedagógica de carácter práctico y normativo, el conjunto sistémico de principios, normas, recursos y procedimientos específicos que sirven para aprender los contenidos en estrecha vinculación con los objetivos educativos propuestos. Buyse (1964) dice que la Didáctica es la rama de la Pedagogía encargada de establecer las regulaciones para el desarrollo de la práctica docente. Stocker (1964) concretamente dice: "La didáctica general plantea las cuestiones generales de toda la enseñanza comunes a todas las materias, intenta exponer los principios o postulados que en todas las asignaturas se presentan y que ha de ser objeto de consideraciones fundamentales" y Tomachewski (1967) asume una posición en la que manifiesta que la Didáctica es la teoría general de la enseñanza y que se centra por tanto en el conjunto de principios y técnicas que tiene un carácter general en tanto son aplicables a todas las disciplinas de este proceso. Pacios (1982) asegura que la Didáctica es una ciencia especulativa y tecnológica. Pérez (1982) la considera como ciencia y tecnología del sistema de comunicación intencional, donde se desarrollan los procesos de enseñanza-aprendizaje, orientada a optimizar la formación intelectual. Fernández Enguita definió el contexto de enseñanza en los inicios de la Modernidad -siglo XVI y XVII- en Europa, a partir del Renacimiento, la Reforma y la Contrarreforma; siendo esta coyuntura histórica central para comprender el desarrollo de ideas y prácticas pedagógicas hasta el presente. Benedito (1987) cree que la Didáctica está en camino de ser ciencia y tecnología a la vez, que se construye, desde la teoría y la práctica, en ambientes organizados de relación y comunicación intencional, donde se desarrollan procesos de enseñanza y aprendizaje para la formación del alumno. Rosales (1988) alega que es la ciencia del proceso de enseñanza sistemática, en cuanto optimizadora del aprendizaje y Contreras (1990) la ve como la disciplina que explica los procesos de enseñanza-aprendizaje para proponer su realización, consecuente con las finalidades educativas. Díaz Barriga menciona que los nuevos procesos en la construcción del conocimiento y en el aprendizaje están generando una nueva didáctica, es decir, "un movimiento en desarrollo, con distintas vertientes, que busca no excluir el sentido del saber, del trabajo docente, a la vez que recupera la importancia del trabajo, el deseo y la construcción de un proyecto personal por parte del alumno. Define a la Didáctica como una disciplina teórica, histórica y política. Es a la vez una disciplina que tiene como objeto orientar las prácticas y a la vez puede ser pensada como un campo teórico en sí mismo, ya que habilita y formula preguntas sobre la validez de las intervenciones que propone. En tanto responde a concepciones sobre la educación, la sociedad, el sujeto, el saber y la ciencia; es histórica, ya que sus propuestas responden a momentos históricos específicos y es política porque su propuesta se encuentra enmarcada en un proyecto social. Por ello se dice que la didáctica es la encargada de articular la teoría con la práctica de la enseñanza. Sacristán (1989) ofreció un nuevo punto de vista "La Didáctica, como disciplina científica a la que corresponde el guiar a la enseñanza, tiene un componente normativo y otro prescriptivo (...) es ciencia, arte y praxis". Vasco (1990) revela un criterio desde cuya óptica considera a "la Didáctica no como la práctica misma del enseñar, sino como el sector más o menos bien limitado del saber pedagógico que se ocupa explícitamente de la enseñanza". Carvajal (1990) escribió que la Didáctica "Es la ciencia de la educación que estudia e interviene en el proceso de enseñanza-aprendizaje con el fin de conseguir la formación intelectual del educando, (...) es parte de la pedagogía que se interesa por el saber, se dedica a la formación dentro de un contexto determinado por medio de la adquisición de conocimientos teóricos y prácticos, contribuye al proceso de enseñanza aprendizaje, a través del desarrollo de instrumentos teóricos-prácticos, que sirvan para la investigación, formación y desarrollo integral del estudiante". De la Torre (1993) definió a la Didáctica como una disciplina pedagógica cuyo centro gira alrededor de los procesos de formación en contextos deliberadamente organizados. Álvarez (1993) no duda en reconocer la condición de ciencia de la Didáctica y enmarca su evolución dentro de la búsqueda de las soluciones de los problemas contemplados en el proceso docente-educativo de las instituciones educacionales, cuya función es preparar al ser humano para los retos de la vida de manera sistémica y eficiente. Para este autor la Didáctica "(...) es una ciencia social, humanística y sus leyes tienen una naturaleza dialéctica. Camilloni (1994) desde su posición teórica asegura que la Didáctica es la teoría de la enseñanza, heredera y deudora de muchas otras disciplinas, que al ocuparse de la enseñanza se constituye en oferente y dadora de teorías en el campo de la acción social y del conocimiento. En estas tres definiciones salta a la vista la identificación de la Didáctica con uno de los componentes esenciales de su núcleo sistémico; la enseñanza. Para Álvarez (1997), también la Didáctica es una ciencia, en construcción, que se nutre de la realidad educativa sometida, a su vez, al análisis y a la reflexión de educadores y educandos. La autora defiende en su propuesta la relación estrecha de la Didáctica y la Pedagogía y asegura que se alimenta de la reflexión colectiva, del análisis y la observación de la compleja realidad educativa y para su desarrollo aplica métodos y técnicas, propios de la investigación que la enriquecen y contribuyen a su crecimiento teórico-práctico. Por su parte, Edith Liwin agrega a estos debates anteriormente planteados que para problematizar lo que es el conocimiento en el aula es necesario considerar dos dimensiones clásicas e indisociables de la agenda de la didáctica: los contenidos y el método. Métodos didácticos Método expositivo. Presentar un tema a través del lenguaje oral, con un apoyo visual. Método socrático. ... Storytelling. ... Método del caso. ... Learning by doing. ... Aprendizaje Basado en Proyectos (ABP). ... Aprendizaje-servicio. ... Aprendizaje basado en problemas. Como podemos observar la Didáctica es una respuesta a la necesidad de encontrar un equilibrio que armonice la relación entre las maneras de enseñar de los educadores y el aprendizaje de sus discípulos; una contradicción todavía por resolver. Son muchos los autores que se han referido al tema en cuestión. Acción didáctica Concepto La didáctica es una disciplina del campo pedagógico de carácter teórico-práctico, cuyo objeto de estudio son los procesos de enseñanza, cuya finalidad es la formación integral del estudiante a través del pasaje de un acervo cultural que podrá ser re-creado por este. La literatura disponible ofrece un variado y numeroso volumen de definiciones de la Didáctica. En la edición Nro 23 de 2014 del Diccionario de la Lengua Española, obra lexicográfica de la Academia, se conceptualiza a la Didáctica como "Perteneciente o relativo a la Didáctica o la enseñanza. Propio, adecuado o con buenas condiciones para enseñar o instruir. Un método, un profesor muy didáctico. Que tiene como finalidad fundamental enseñar o instruir. Género didáctico. Arte de enseñar". La Didáctica actual es ese campo de conocimientos, de investigaciones, de propuestas teóricas y prácticas que se centran, sobre todo, en los procesos de enseñanza y aprendizaje" (Addine et al., 1998). Díaz (1999) explica que la Didáctica pude definirse como la ciencia que explica y aplica lo relacionado con la enseñanza como la tarea intencional y sistemática y como la estrategia expedita para lograr la formación del hombre. Gervilla (2000) la concibe como la ciencia de la educación que estudia todo lo relacionado con la enseñanza: diseño de las mejores condiciones, ambiente, clima, para conseguir un aprendizaje excepcional y el desarrollo completo del alumno. Sevillano (2004) la considera como la ciencia teórico-normativa que guía intencionalmente el proceso optimizador de enseñanza-aprendizaje, en un contexto determinado e interactivo y posibilita la aprehensión de la cultura con el fin de conseguir el desarrollo integral del estudiante. Zabalza (2007) retoma el análisis de la enseñanza y el aprendizaje como proceso asociado a la Didáctica y la define como ese campo de conocimientos, de investigaciones, de propuestas teóricas y prácticas que se centran en los procesos de enseñanza y aprendizaje: cómo estudiarlos, cómo llevarlos a la práctica en buenas condiciones y cómo mejorar todo el proceso. Pla, R (2010) establece una relación entre la Pedagogía y la Didáctica, manifestó que "La Didáctica es una rama de la Pedagogía, que adquiere el carácter de ciencia en la medida que estudia un nivel cualitativo de organización del proceso educativo que posee peculiaridades, que tienen que ver con las relaciones internas que se producen entre el educador y el alumno mediados por los componentes: objetivos, contenidos, métodos, formas, medios, evaluación desde un objeto preciso del conocimiento. Ámbito La didáctica se puede entender como pura técnica o ciencia aplicada y como teoría o ciencia básica de la instrucción, educación o formación. Los diferentes modelos didácticos pueden ser teóricos (descriptivos, explicativos, predictivos) o tecnológicos (prescriptivos, normativos). La historia de la educación muestra la enorme variedad de modelos didácticos que han existido. La mayoría de los modelos tradicionales se centraban en el profesorado y en los contenidos (modelo proceso-producto). Los aspectos metodológicos, el contexto y, especialmente, el alumnado, quedaban en un segundo plano. Como respuesta al verbalismo y al abuso de la memorización típica de los modelos tradicionales, los modelos activos (característicos de la escuela nueva) buscan la comprensión y la creatividad, mediante el descubrimiento y la experimentación. Estos modelos suelen tener un planteamiento más científico y democrático y pretenden desarrollar las capacidades de autoformación (modelo mediacional). Actualmente, la aplicación de las ciencias cognitivas a la didáctica ha permitido que los nuevos modelos sean más flexibles y abiertos, mostrando la enorme complejidad y el dinamismo de los procesos de enseñanza-aprendizaje (modelo ecológico). División de la didáctica Según Juan Amos Comenius, en su "Didáctica magna", esta se divide en tres formas: Matética: Que se refiere a quien aprende. La didáctica debe tener claro hacia quien va dirigido el aprendizaje y con base en que necesidades se ejecutará. Sistemática: Se refiere a los objetivos de aprendizaje y a las materias por cursar. De modo que la didáctica sirve como conducto para cumplir dichos objetivos. Metódica: Es el momento en el que se ejecuta la didáctica. El docente cumple una labor muy importante en esta división, pues deberá ser actor por naturaleza, usar un nivel de voz adecuado, etcétera. Clasificación Cabe distinguir: Didáctica general, que se centra en definir formas sistemáticas de enseñanza; mediando entre los objetivos sociales de la escolaridad y las capacidades de los alumnos. Didáctica específica, que se enfoca en las normas y métodos aplicables para el aprendizaje de una materia en específico. Didáctica diferencial, que tiene en cuenta la evolución y características del individuo, de manera que se personalice la enseñanza de acuerdo a ello. Con respecto a la didáctica específica, Alicia Camilloni enumera algunos criterios de diferenciación de las regiones particulares del mundo de la enseñanza de la siguiente manera: Didácticas específicas según los distintos niveles del sistema educativo. Didácticas específicas según las edades de los alumnos. Didácticas específicas de las disciplinas. Didácticas específicas según el tipo de institución. Didácticas específicas según las características del sujeto. Dentro la didáctica especial o específica se ubica a la Didáctica tecnológica, ya que con la incorporación de distintas tecnologías en educación, fue necesario pensar en estrategias de enseñanza y formas de uso adecuado que posibiliten mejores vínculos con el conocimiento. A partir de la década del 90 y con el aporte de diferentes teorías (lingüísticas, culturales y cognitivas) el acercamiento de la tecnología educativa y la didáctica fue mayor. Por ello, el campo de la didáctica tecnológica se conformó como un cuerpo de conocimientos referidos a las nuevas prácticas de enseñanza. Pero este cuerpo teórico necesitó y necesita constantemente incorporar trabajos empíricos, analizados a la luz de los debates teóricos y con prácticas referidas a la tarea de enseñanza (Litwin Edith; Tecnologías educativas en tiempos de Internet; 1995; Amorrortu Editores). Dentro de las didácticas específicas, la didáctica de las Ciencias Sociales constituye un área de conocimiento emergente, que se incluye en el campo más amplio de las Ciencias de la Educación. En palabras de Pagés (1993: 128): “La Didáctica de las Ciencias Sociales tiene un conocimiento específico propio que emana de una práctica -la de enseñar a enseñar al profesorado de Geografía, Historia y Ciencias Sociales-." La didáctica de la matemática o matemática educativa estudia las actividades didácticas, o sea las actividades que tienen por objeto la enseñanza, en lo que ellas tienen de específico de la matemática. El intenso proceso de culturización científica de los últimos tiempos ha producido efectos que hacen necesarias modificaciones educativas adecuadas a los mismos, con el consiguiente avance en esta disciplina. Una de las principales característica de la educación corporativa, que la distingue de la educación tradicional, es la posibilidad de adoptar una didáctica diferencial. Las características del público discente pueden ser conocidas al detalle. Una situación de enseñanza puede ser observada a través de las relaciones que se «juegan» entre tres polos: maestro, alumno, saber, porque se analiza: La distribución de los roles de cada uno. El proyecto de cada uno. Las reglas de juego: qué está permitido, qué es lo que realmente se demanda, qué se espera, qué hay que hacer o decir para demostrar que se sabe. Modelos Muy esquemáticamente se describen tres modelos de referencia: El modelo llamado «normativo», «reproductivo» o «pasivo» (centrado en el contenido). Donde la enseñanza consiste en transmitir un saber a los alumnos. Por lo que, la pedagogía es, entonces, el arte de comunicar, de «hacer pasar un saber». El maestro muestra las nociones, las introduce, provee los ejemplos. El alumno, en primer lugar, aprende, escucha, debe estar atento; luego imita, se entrena, se ejercita y al final, aplica. El saber ya está acabado, ya está construido. El modelo llamado «incitativo» o «germinal» (centrado en el alumno). El maestro escucha al alumno, suscita su curiosidad, le ayuda a utilizar fuentes de información, responde a sus demandas, busca una mejor motivación (medios centros de interés de Decroly, cálculo vivo de Freinet). El alumno busca, organiza, luego estudia, aprende (a menudo de manera próxima a lo que es la enseñanza programada). El saber está ligado a las necesidades de la vida, del entorno (la estructura propia de ese saber pasa a un segundo plano). El modelo llamado «aproximativo» o «constructivo» (centrado en la construcción del saber por el alumno). Se propone partir de modelos, de concepciones existentes en el alumno y ponerlas a prueba para mejorarlas, modificarlas, o construir unas nuevas. El maestro propone y organiza una serie de situaciones con distintos obstáculos (variables didácticas dentro de estas situaciones), organiza las diferentes fases (acción, formulación, validación, institucionalización), organiza la comunicación de la clase, propone en el momento adecuado los elementos convencionales del saber (notaciones, terminología). El alumno ensaya, busca, propone soluciones, las confronta con las de sus compañeros, las defiende o las discute. El saber es considerado en lógica propia. Componentes Hay seis componentes importantes que conforman el acto didáctico: El docente o profesor(a)/maestro(a): Persona que promueve y orienta el aprendizaje, El discente o estudiante: Persona a quien se dirige la enseñanza. Los objetivos de aprendizaje: Metas educativas que reflejan los logros de aprendizaje que se esperan en los discentes. Materia: Contenidos que han de ser enseñados y aprendidos. Formalmente están plasmados en el currículo. Los métodos de enseñanza: Procedimientos seguidos para promover el aprendizaje. Responden a la pregunta de cómo enseñar. El contexto del aprendizaje: Escenario donde se lleva a cabo el proceso enseñanza-aprendizaje; incluye el entorno social, cultural y geográfico. El currículo escolar es un sistema de vertebración institucional de los procesos de enseñanza y aprendizaje, y tiene fundamentalmente cuatro elementos constitutivos: objetivos, contenidos, metodología y evaluación. Aunque hay países que, en su sistema educativo, el elemento «contenido» lo llegan a derivar en tres, como lo son los contenidos declarativos, actitudinales y los procedimentales. Es importante tener en cuenta el denominado currículum oculto que, de forma inconsciente, influye de forma poderosa en cuáles son los auténticos contenidos y objetivos en los que se forma el alumnado. Por ejemplo, un docente tiene que conocer el CNB (Currículum Nacional Base) de su país (porque no todos tenemos las mismas necesidades) para trabajar de una manera eficiente de acuerdo a lo que localmente se necesite. Momentos didácticos El proceso de enseñanza se constituye por tres momentos que se van dando de manera cíclica, por lo que en su conjunto también se les denomina como ciclo docente. Los momentos didácticos son: planeamiento, implementación y evaluación. El planeamiento didáctico es el momento en el que se prevén todos los elementos necesarios para implementar un programa educativo. Entre esos elementos se pueden mencionar los objetivos, contenidos, estrategias, recursos didácticos, tiempos, entre otros. La implementación es la parte del proceso en el que se pone en marcha el programa educativo, es decir, se imparte con los alumnos. Aquí se implementa la planificación realizada, pero haciendo los ajustes pertinentes para orientar el aprendizaje, de acuerdo a las necesidades de los alumnos y demás condiciones que resultaron distintas a lo previsto. La evaluación es un momento didáctico en el que se valora el alcance de los objetivos de aprendizaje, aunque tiene una relevancia determinante al final del proceso, es indispensable que se efectúe de manera simultánea a la implementación, con la finalidad de responder a las necesidades de aprendizaje de los alumnos a lo largo del proceso. Véase también Contrato didáctico. Materiales didácticos. Poema didáctico. Prácticas docente. Transposición didáctica Referencias Didáctica
452_0
Derecho
El derecho puede definirse como un sistema de principios y normas, generalmente inspirados en ideas de justicia y orden, que regulan la conducta humana en toda sociedad y cuyo cumplimiento puede imponerse de forma coactiva por el poder público. No obstante, no hay una definición del derecho generalmente aceptada o consensuada. Por ello, el derecho ha sido considerado simultáneamente una ciencia y un arte. El derecho existe desde las primeras civilizaciones. El ordenamiento jurídico es el conjunto o la suma de principios y normas jurídicas vigentes en un Estado. El derecho comparado analiza las diferencias entre los diferentes ordenamientos coexistentes. El derecho guarda una íntima conexión con la ciencia política, la economía, la sociología y la historia, y es el centro de problemas humanos importantes y complejos, como concretar el significado de ideas como igualdad, libertad o justicia en casos concretos. Las cuestiones más generales sobre el derecho han sido estudiadas por la filosofía, la historia y la teoría del derecho. Existen muchas formas de clasificar, analizar y ordenar el derecho para proceder a su estudio, aunque el derecho es en esencia un conjunto de normas unitario. Una división clásica es la acuñada en el siglo d. C por el jurista romano Ulpiano: el derecho público regula la actuación de los poderes públicos; y el derecho privado, que regula las relaciones privadas entre personas físicas y jurídicas. Esta división, a grandes rasgos, persiste en la actualidad, aunque la división es menos clara en algunos sistemas jurídicos, como el common law. Algunas ramas importantes del derecho público contemporáneo son, entre otras, el derecho constitucional, el derecho administrativo o el penal, mientras que el derecho privado se compone principalmente del derecho civil, el mercantil y el derecho laboral. Algunas disciplinas como el derecho internacional también obedecen a esta clasificación, dividiéndose en derecho internacional público y privado. Término Etimología La palabra derecho deriva de la voz latina directum, «lo que está conforme a la regla, a la ley, a la norma», o como expresa el jurista mexicano Villoro Toranzo, «lo que no se desvía ni a un lado ni otro». La expresión aparece, según el español Pérez Luño, en la Edad Media para definir al derecho con connotaciones morales o religiosas, el derecho «conforme a la recta razón». Esto es así si tenemos en cuenta frases como non omne quod licet honestum est (no todo lo que es lícito es honesto), en palabras del jurista romano Paulo, que demuestra el distanciamiento del derecho respecto a la moral. Esta palabra surge por la influencia estoico-cristiana tras la época del secularizado derecho de la época romana, y es el germen y raíz gramatical de la palabra «derecho» en los sistemas actuales: diritto, en italiano; direito, en portugués; dreptu, en rumano; droit, en francés; a su vez, right, en inglés; recht en alemán y en neerlandés, donde han conservado su significación primigenia de «recto» o «rectitud». La separación posterior del binomio ius - directum no pretende estimar que la palabra ius se halle exenta de connotaciones religiosas: téngase en cuenta que en la época romana temprana, según Pérez Luño, los aplicadores del derecho fueron, prácticamente de forma exclusiva, los pontífices. Definición Los juristas han elaborado numerosas definiciones del derecho a lo largo de los siglos. Sin embargo, no existe una definición que goce de aceptación generalizada. La Real Academia Española define el derecho como el «conjunto de normas, principios, costumbres y concepciones jurisprudenciales y de la comunidad jurídica, de los que se derivan las normas de organización de la sociedad y de los poderes públicos, así como los derechos de los individuos y sus relaciones con aquellos». El derecho es un conjunto o sistema de normas jurídicas, de carácter general, que se dictan para regir sobre toda la sociedad o sectores preestablecidos por las necesidades de la regulación social, que se imponen de forma obligatoria a los destinatarios y cuyo incumplimiento debe acarrear una sanción coactiva o la respuesta del Estado a tales acciones. Estas normas no son resultado solamente de elementos racionales, sino que en la formación de las mismas inciden otros elementos, tales como intereses políticos y socioeconómicos, de valores y exigencias sociales predominantes, que condicionan una determinada voluntad política y jurídica, que en tanto se haga dominante se hace valer a través de las reglas de derecho. A su vez esas normas expresan esos valores, conceptos y exigencias, y contendrán los mecanismos para propiciar la realización de los mismos a través de las conductas permitidas, prohibidas o exigidas en las diferentes esferas de la vida social. La diversidad social y de esferas en que metodológica y jurídicamente se pueden agrupar, es consecuencia del nivel de desarrollo no solo de las relaciones, sino también de la normativa y de las exigencias de progreso de las mismas, pero aún con esta multiplicidad de normativas existentes, el derecho ha de ser considerado como un todo, como un conjunto armónico. Esa armonía interna puede producirse por la existencia de la voluntad política y jurídica que en ellas subyace. En sociedades plurales, la armonía de la voluntad política depende de la coincidencia de intereses de los grupos políticos partidistas predominantes en el poder legislativo y en el poder ejecutivo, así como de la continuidad de los mismos en el tiempo. Cambios también se pueden producir con las variaciones de los intereses socioeconómicos y políticos predominantes, al variar la composición parlamentaria o del gobierno. Asimismo, en sociedades monopartidistas y con presupuesto de la unidad sobre la base de la heterogeneidad social existente, la armonía de la voluntad normativa es mucho más factible si bien menos democrática, lo que no quiere decir que se logre permanentemente. Doctrinariamente se defiende la existencia de unidad y coherencia; pero lo cierto es que en la práctica lo anterior es absolutamente imposible en su aspecto formal, a pesar de los intereses y valores en juego, por cuanto las disposiciones normativas se promulgan en distintos momentos históricos, por órganos del Estado diferentes, e incluso dominados estos por mayorías políticas o con expresiones de voluntades políticas muy disímiles. Igualmente no siempre hay un programa preelaborado para la actuación normativa del Estado (programas legislativos), sino que la promulgación de una u otra disposición depende de las necesidades o imposiciones del momento. En tales situaciones se regulan relaciones sociales de una forma, con cierto reconocimiento de derechos e imposiciones de deberes, con determinadas limitaciones, se establecen mandatos de ineludible cumplimiento; y estas disposiciones pueden ser cuestionadas por otros órganos del Estado, derogadas por los superiores, o modificadas por los mismos productores meses o años después. Es decir, en el plano formal, haciendo un análisis de la existencia de una diversidad de disposiciones, encontraremos disposiciones que regulan de manera diferente ciertas instituciones, las prohíben, las admiten, introducen variaciones en su regulación, o que también en el proceso de modificación o derogación, se producen vacíos o lagunas, es decir, esferas o situaciones desreguladas. En el orden fáctico, y usando argumentos de la teoría política, las bases para la armonía las ofrece, ciertamente, la existencia de una voluntad política predominante, y de ciertos y determinados intereses políticos en juego que desean hacerse prevalecer. Y desde el punto de vista jurídico-formal, la existencia de un conjunto de principios que en el orden técnico jurídico hacen que unas disposiciones se subordinen a otras, que la producción normativa de un órgano prime sobre la de otros, que unas posteriores puedan dejar sin vigor a otras anteriores, como resulta de los principios de jerarquía normativa, no por el rango formal de la norma, sino por la jerarquía del órgano del aparato estatal que ha sido facultado para dictarla o que la ha dictado; de prevalencia de la norma especial sobre la general; que permita que puedan existir leyes generales y a su lado leyes específicas para ciertas circunstancias o instituciones y que permitan regularla de forma diferenciada, y aun así ambas tengan valor jurídico y fuerza obligatoria; o el principio de derogación de la norma anterior por la posterior, etcétera. Clasificaciones Derecho objetivo y derecho subjetivo El derecho objetivo es el conjunto de normas jurídicas (leyes, reglamentos, entre otras) de carácter obligatorio, y que son creadas por el Estado para conservar el orden social. Siempre teniendo en cuenta la validez, es decir, si se ha llevado a cabo el procedimiento adecuado para su creación, independientemente de su eficacia y de su ideal axiológico (si busca concretar un valor como la justicia, la armonía, el bien común, etcétera). El derecho subjetivo es la facultad que ha otorgado el ordenamiento jurídico a un sujeto (por ejemplo, derecho a la nacionalidad, derecho a la salud, derecho a demandar, derecho a manifestarse libre y pacíficamente, derecho a la libre expresión, derecho al sindicalismo, etc.). El derecho objetivo puede responder a distintas significaciones: El conjunto de reglas que rigen la convivencia de los hombres en sociedad. Norma o conjunto de normas que por una parte otorgan derechos o facultades y por la otra, correlativamente, establecen o imponen obligaciones. Conjunto de normas que regulan la conducta de los hombres, con el objeto de establecer un ordenamiento justo de convivencia humana. El derecho subjetivo se puede decir que es: La facultad que tiene un sujeto para ejecutar un acto con determinada conducta o abstenerse de ella, o para exigir de otro sujeto el cumplimiento de su deber. La facultad, la potestad o autorización que conforme a la norma jurídica tiene un sujeto frente a otro u otros sujetos, ya sea para desarrollar su propia actividad o determinar la de aquellos. Es una concesión de autoridad otorgada por una norma jurídica una persona o grupo en virtud de la cual queda legitimada para desplegar una determinada conducta sobre una o más personas o cosas. El derecho subjetivo se clasifica en: Derechos políticos (derecho de sufragio, a ser electo, a asociarse políticamente y a ser jurado). Derechos privados, que se subclasifican en: Derechos personales o créditos (aquellos de donde nacen las obligaciones correlativas). Derechos reales (aquellos que se ejercen sobre cosas, sin respecto a determinada persona). Creación y evolución del derecho La producción del derecho tal como lo conocemos hoy es básicamente estatal y tiene su origen en la institucionalización del Estado moderno, a partir de la Edad Moderna, siendo su ejemplo clásico la hegemonía del Estado español tras la unificación de Castilla y Aragón con los reyes católicos. Aunque el derecho como norma de conducta coactiva surge ya desde las primeras civilizaciones con una organización política, como las ubicadas en Mesopotamia, Fenicia, Palestina, Egipto y Grecia fundamentalmente como un derecho consuetudinario, es decir, basado en la costumbre, sin lugar a dudas que los romanos fueron la primera y mayor civilización en dedicar sus mayores esfuerzos a condicionar la generalidad de sus conductas, incluso las más cotidianas, al imperio del derecho, como sus relaciones de familia, el matrimonio, la adopción, la emancipación y la patria potestad; o las normas patrimoniales del derecho civil, como los contratos y los derechos reales, donde los romanos aún no han encontrado otra civilización que los alcance en profusión y creación jurídica, ni siquiera el derecho francés, que junto al derecho canónico y a la pandectística alemana del , son los siguientes mayores contribuyentes en dicha rama jurídica. Ya a partir de la Edad Moderna y bajo la fuerte influencia de los clásicos del humanismo como Nicolás Maquiavelo, Thomas Hobbes y John Locke, el derecho comienza a moldearse como un instrumento y elemento del Estado, adquiriendo la fisonomía positivista que tiene en la actualidad en la mayor parte de los Estados no descendientes del archipiélago británico, como Latinoamérica y Europa continental (derecho continental). Realización del derecho Para que una norma pueda ser eficaz, para que se realice, han de crearse, además, los medios e instituciones que propicien la realización de la disposición, y de los derechos y deberes que de tales situaciones resulten. Pero la eficacia de una norma no puede exigirse solo en el plano normativo (coerción), también ha de ser social, material, para que haya correspondencia entre la norma y el hecho o situación, para que refleje la situación existente o que desee crearse, manifestándose así la funcionalidad del derecho. Como resultado de lo anterior, será posible, entonces, que la norma obtenga el consenso activo de sus destinatarios, que sea acatada y respetada conscientemente, sin requerir la presión del aparato coercitivo del Estado. Requisito previo de la validez normativa es la publicidad en el sentido antes expuesto. La publicación de las normas se hace no solo para dar a conocer el nacimiento de la disposición, el inicio de su vida jurídica formal, sino también para declarar la posibilidad de su exigencia y obligatoriedad para el círculo de destinatarios de la normativa. Aún más, si toda disposición normativa se dicta, por regla general, para que tenga vida indeterminada, para que sea vigente y por tanto válida a partir de la fecha de su publicación, si ella no establece lo contrario, el acto de la publicación es vital en su nacimiento y acción posterior. La validez de una norma de derecho y de la disposición que la contiene y expresa, entonces, es un elemento importante para la eficacia de la misma, para el hallazgo de su realización en la sociedad, tal y como se previó. Interesan no solo la observación de los principios, sino también de ciertas reglas relativas a su elaboración racional, a la creación de instituciones para asegurar su cumplimiento, así como la finalidad que con ellas se persigue, a saber: conservar, modificar, legitimar cambios, así como de la observancia de principios básicos que rigen en cada ordenamiento jurídico. Por lo tanto, las disposiciones normativas, de cualquier rango, han de ser resultado del análisis previo con el objetivo de conocer los hechos, sus causas y efectos, regulaciones posibles, sus efectos, para poder determinar cuál es la forma precisa que ha de exigirse o propiciarse, o de la Institución jurídica que desea regularse; del cumplimiento de ciertos requisitos formales en su creación y de la observancia de principios técnicos jurídicos que rigen en un ordenamiento jurídico determinado. Han de crearse, además, los medios e instituciones que propicien el cumplimiento de la disposición, y de los derechos y deberes que de tales situaciones resulten, tanto en el orden del condicionamiento social-material, proveniente del régimen socioeconómico y político imperante, de los órganos que hacen falta para su aplicación, como la normativa legal secundaria y necesaria para instrumentar la norma de derecho. También ha de tenerse en forma clara los objetivos o finalidades que se persiguen con la norma o para qué se quiere regular esa relación, si existen las condiciones antes expuestas para su realización, y entonces la validez de la norma, será no solo manifestándose así la funcionalidad del Derecho, sino que también lo será en el orden formal, siendo posible, entonces, que la norma obtenga el consenso activo de sus destinatarios, su aceptación, cumplimiento y hasta su defensa. Nacida la norma, se ha de aplicar y de respetar no solo por los ciudadanos, sino también por el resto de las instituciones sociales, y en particular por los órganos inferiores, los cuales están impedidos formalmente, gracias a la vigencia del principio de legalidad, de regular diferente o contrario, de limitar o ampliar las circunstancias en que se ha de aplicar la normativa anterior, salvo que la propia disposición autorice su desarrollo. En consecuencia, la eficacia del derecho depende no solo del proceso de formación, aunque es muy importante, sino que depende también de las medidas adoptadas para hacer posible la realización de lo dispuesto en la norma y del respeto que respecto a él exista, principalmente por los órganos del Estado y en particular de la administración a todos los niveles. Por último, para que las normas emitidas por el Estado no solo sean cumplidas ante la amenaza latente de sanción ante su vulneración, sino que se realicen voluntariamente, el creador de las mismas ha de tener siempre presente que el destinatario general y básico de las normas es el dueño del poder, que mediante el acto electoral ha otorgado a otros un mandato popular para que actúen a su nombre y, en tanto hacia él van dirigidas las normas, han de preverse los instrumentos legales, así como las instituciones y medios materiales que permitan hacer efectivos los derechos que las disposiciones reconocen jurídicamente y permitan la defensa de los mismos ante posibles amenazas o vulneraciones que la administración o terceras personas puedan provocar. En otras palabras: la necesidad de garantías para el ejercicio de los derechos y su salvaguarda como vía para que se realice el derecho, para garantizar, entre otras, las relaciones bilaterales individuo-Estado, individuo-individuo que se han regulado. Así entonces la salvaguarda del orden, la defensa de los derechos y la legalidad, irán de la mano. Características del derecho El derecho presenta las siguientes características: normativo, bilateral, coercible, con una pretensión de inviolabilidad, se manifiesta como un sistema y posee una proyección de justicia. Normatividad Se traduce en que el derecho se encuentra inmerso dentro de la realidad social, el marco cultural. El derecho pertenece a la familia de las normas y está constituido por normas, más específicamente dentro de las reglas obligatorias de conducta. Bilateralidad El derecho es bilateral porque requiere de interactividad de dos o más personas. Uno de los rasgos distintivos de las normas jurídicas frente a las normas morales es la bilateralidad. En efecto, la bilateralidad del derecho se hace evidente no solo por su necesidad primordial de interrelacionar, cuando menos, dos personas, sino también en la heteronomía, condición de la voluntad que se rige por imperativos que están fuera de ella misma, pues, una es la fuente de la norma jurídica y la otra la persona sujeta a su cumplimiento. En la coercibilidad, igualmente resalta la misma dicotomía: quien dispone de la fuerza y quien es compelido por ella. Giorgio Del Vecchio enuncia: Eduardo García Máynez corrobora: Coercibilidad La coercibilidad es la exigencia de amparar el derecho en la fuerza para obtener la ejecución de la conducta prescrita, constituyendo la característica propia del derecho. Se destaca así claramente la coercibilidad de las normas jurídicas frente a la incoercibilidad de las de trato social. Pretensión de inviolabilidad Ya que la norma es susceptible de ser violada constantemente, el derecho requiere indefectiblemente revestirse de inviolabilidad, incluso frente al Estado, a través de una sanción. He ahí por qué resiste, con exigencia incondicionada, la intromisión del mandato arbitrario en las relaciones sociales. Sistema El derecho es un sistema de normas, ya que ellas no están inconexas, caprichosamente yuxtapuestas de manera arbitraria o caótica. Antes bien, las normas jurídicas vigentes en un Estado se hallan orgánicamente correlacionadas, guardando entre sí niveles de rango y prelación: unas son superiores, otras inferiores, y todas conforman una estructura armónica, gradual y unitaria que evoca la imagen de una obra arquitectónica, con atinada distribución de masas. Al conjunto de normas positivas de un país, coordinadas y distribuidas jerárquicamente, se denomina «ordenamiento jurídico». El ordenamiento jurídico se encuentra organizado sistemáticamente por niveles de rango y prelación —antelación o preferencia con que algo debe ser atendido respecto de otra cosa con la cual se compara— unas superiores otras inferiores y todas conforman una estructura armónica. El sistema del derecho fue representado, en la tradición jurídica europea, desde Hans Kelsen, en la forma de una pirámide de normas. Pero hay concepciones más actuales, donde la función de hierarquía no es abandonada, pero esté en el centro de una concepción semiótico-textual, por círculos concéntricos, desde el centro hasta la periferia del sistema. Justicia Es inherente a toda norma jurídica una proyección hacia la efectividad de la justicia en las relaciones humanas, como algo esencial y definitorio de ella. Fuentes del derecho La expresión «fuentes del derecho» alude a los hechos de donde surge el contenido del derecho vigente en un espacio y momento determinados. Son los «espacios» a los cuales se debe acudir para establecer el derecho aplicable a una situación jurídica concreta. Son el «alma» del derecho, son fundamentos e ideas que ayudan al derecho a realizar su fin. La palabra «fuente» deriva del latín fonts y en sentido figurado se emplea para significar el «principio, fundamento u origen de las cosas materiales o intramateriales», o como dice Villoro Toranzo, «sugiere que hay que investigar los orígenes del derecho». En este sentido entendemos por fuente del derecho como todo aquello, objeto, actos o hechos que producen, crean u originan el surgimiento del derecho, es decir, de las entrañas o profundidades de la propia sociedad. Ahora bien, las fuentes del derecho se clasifican por su estudio en: Fuentes históricas: son el conjunto de documentos o textos antiguos entre libros, textos o papiros que encierran el contenido de una ley, por ejemplo, el Código de Hammurabi. Fuentes reales o materiales: conjunto de factores históricos, políticos, sociales, económicos, culturales, éticos o religiosos que influyen en la creación de la norma jurídica. Por ejemplo, a partir de un escándalo político se crea la ley que regula el lobby; o a partir de un terremoto se crea la ley que otorga beneficios a las zonas afectadas. Fuentes formales: conjunto de actos o hechos que realiza el Estado, la sociedad, el individuo para la creación de una ley; ejemplo: El poder legislativo. Esta fuente contiene: La costumbre. La doctrina. La jurisprudencia. Los principios generales del derecho. Los tratados internacionales. La legislación o la ley. El Derecho Consuetudinario es el derecho no escrito que está basado en la costumbre jurídica, la cual crea precedentes, esto es, la repetición de ciertos actos jurídicos de manera espontánea y natural, que por la práctica adquieren la fuerza de ley, otorgando un consentimiento tácito repetido por el largo uso. Esta práctica tradicional debe ir en armonía con la moral y las buenas costumbres, encaminada a la convicción de que corresponde a una necesidad jurídica, para ser considerada como una fuente de la ley al estar amparada por el derecho consuetudinario. Sin embargo, la costumbre, a más de suplir los vacíos legales, puede llegar a derogar una ley siempre que esta sea inconveniente o perjudicial. En Perú, el Derecho Consuetudinario implica reconocer a los grupos y/o personas que practican formas tradicionales de administración de justicia, ejercen sistemas de justicia no estatales, emplean mecanismos alternativos de resolución de conflictos o utilizan sistemas alternativos de justicia, cualquiera que sea la denominación que se prefiera. Es así que, por diversas razones de orden histórico, social y jurídico, resulta medianamente pacífico entender que los sujetos que, en mayor o menor medida recurren al Derecho Consuetudinario en el Perú, son las comunidades campesinas y comunidades nativas, los jueces de paz y las rondas campesinas. En cuanto al marco normativo que reconoce el ejercicio de funciones jurisdiccionales conforme al Derecho Consuetudinario, podemos destacar que las comunidades campesinas y nativas tienen reconocido tal derecho por el artículo 149° de la Constitución Política del Perú de 1993, los jueces de paz (juzgados o justicia de paz) en forma relativa por el artículo 66° de la Ley Orgánica del Poder Judicial de 1991 (reformada en 1993) y las rondas campesinas en forma singular por la nueva Ley N.º 27908, Ley de Rondas Campesinas del año 2003. El derecho occidental (en el sistema romano germánico o sistema de derecho continental) tiende a entender como fuentes las siguientes: La constitución: es la norma fundamental, escrita o no, de un Estado soberano, establecida o aceptada para regirlo. La ley: es una norma jurídica dictada por el legislador. Es decir, un precepto establecido por la autoridad competente, en que se manda, prohíbe o permite algo en consonancia con la justicia y para el bien de los gobernados. La jurisprudencia: se refiere a las reiteradas interpretaciones que de las normas jurídicas hacen los tribunales de justicia en sus resoluciones, y puede constituir una de las fuentes del derecho, según el país. La costumbre: es una práctica social arraigada, en sí una repetición continua y uniforme de un acto al que se quiere otorgar valor normativo, sin que forme parte del derecho positivo. El acto jurídico: es el acto de autonomía privada de contenido preceptivo con reconocimiento y tutela por parte del orden jurídico. Los principios generales del derecho: son los enunciados normativos más generales que, sin haber sido integrados al ordenamiento jurídico en virtud de procedimientos formales, se entienden formar parte de él, porque le sirven de fundamento a otros enunciados normativos particulares o recogen de manera abstracta el contenido de un grupo de ellos. La doctrina: se entiende por doctrina a la opinión de los juristas prestigiosos sobre una materia concreta, la que queda materializada en ensayos, tesis o memorias, manuales, tratados, revistas científicas y charlas. Asimismo en el marco del derecho internacional, el Estatuto de la Corte Internacional de Justicia en su artículo 38 enumera como fuentes: Los tratados La costumbre internacional Los principios generales de derecho Las opiniones de la doctrina y la jurisprudencia de los tribunales internacionales, como fuentes auxiliares. Se reserva, a pedido de parte, la posibilidad de fallar «ex aequo et bono» (según lo bueno y lo equitativo). El sistema de fuentes aplicable a cada caso varía en función de la materia y el supuesto de hecho concreto sobre el que aplicar una solución jurídica. Así, en España, el sistema de fuentes para relaciones jurídicas en materia civil viene recogido en el Código Civil y el sistema de fuentes para relaciones laborales (que, por ejemplo, incluyen los convenios colectivos, como fuente de derecho específica de las relaciones laborales) viene recogido en el Estatuto de los Trabajadores. Hermenéutica jurídica La hermenéutica jurídica es una disciplina técnica del derecho cuya finalidad es intentar descifrar el verdadero sentido, alcance y significado detrás de cada expresión jurídica. La expresión «hermenéutica» proviene del verbo griego ἑρμηνευτικός (jermeneueien) que significa interpretar, esclarecer, traducir. Significa que alguna cosa es vuelta comprensible o llevada a la comprensión. Se considera que el término deriva del nombre del dios griego Hermes, el mensajero, al que los griegos atribuían el origen del lenguaje y la escritura y al que consideraban patrono de la comunicación y el entendimiento humano. Este término originalmente expresaba la comprensión y explicación de una sentencia oscura y enigmática de los dioses u oráculo, que precisaba una interpretación correcta. Interpretación jurídica Concepto Interpretar significa «determinar el sentido y alcance de una norma jurídica», fijar con precisión sus cuatro ámbitos de vigencia. Esta interpretación no se hace en abstracto, sino en relación con el caso particular y concreto al cual la norma se va a aplicar. Es una interpretación práctica y no teórica. Clasificaciones Según su fuente formal Interpretación de la ley. Interpretación de la costumbre jurídica. Interpretación de los tratados internacionales. Interpretación de los actos y contratos. Interpretación de la sentencia judicial. Según su intérprete Interpretación por vía de autoridad. Interpretación legal. Interpretación judicial. Interpretación administrativa. Interpretación por vía privada. Interpretación usual. Interpretación doctrinal. Según si su normador o intérprete sea el mismo 1. Interpretación auténtica. La interpretación es auténtica cuando la lleva a cabo la misma persona que creó la norma. Por ejemplo, si la norma a interpretar es una ley, es auténtica si la hace el legislador. 2. Interpretación no auténtica. La interpretación es no auténtica cuando la realiza cualquier persona que no sea el autor de la norma. Según sus resultados 1. Interpretación declarativa. Es aquella en que su sentido y alcance coincide con su tenor literal. 2. Interpretación extensiva. Es aquella en que del sentido y alcance que se ha dado a la norma resulta una aplicación a más casos que los que emanan del tenor literal. 3. Interpretación restrictiva. Es aquella en que del sentido y alcance que se ha dado a la norma resulta una aplicación a menos casos que los que emanan del tenor literal. Interpretación de la ley Concepto Consiste en determinar el verdadero sentido y alcance de un precepto legal. Tendencias doctrinarias Tendencia subjetivista Entiende que el «sentido» de la ley es la voluntad o intención del legislador. Tendencia objetivista El «sentido» de la ley sería la finalidad intrínseca o inherente de la ley, con independencia de la voluntad o intención del legislador. Esta tendencia es la que predomina en la actualidad. Escuelas de interpretación Escuela exegética o clásica (Demolombe y Laurent) Esta escuela es una manifestación del racionalismo jurídico en el ámbito de la interpretación. Recibe el nombre de «conceptualismo jurídico». Sus postulados básicos son los siguientes: El legislador es infalible: no incurre en contradicciones ni en vacíos. Principio de omnipotencia de la ley: la ley es la única fuente formal del derecho. Estricto apego al tenor literal de la ley. Como elemento de interpretación se acepta únicamente el elemento gramatical. La labor interpretativa tiene por objeto indagar la voluntad o intención del legislador. Carácter profundamente estatista, derivado de la omnipotencia del legislador y de su infalibilidad. Apego excesivo a la autoridad y al precedente interpretativo. Solo se interpretan las leyes oscuras o que presentan ambigüedades. La ley clara no se interpreta. Escuela del Derecho libre (Kantorowicz) Surge como la antítesis de la escuela exegética. Sus impulsores sostienen que paralelamente al derecho estatal se desenvuelve siempre un derecho independiente del Estado, que es el derecho realmente vigente. A este derecho lo denominan «derecho libre». En la formación del derecho juega un rol decisivo el juez y por lo mismo en materia de interpretación el juez no está sujeto de manera alguna al tenor literal y puede recurrir para interpretarla a cualquier elemento ajeno a la ley que estime pertinente. Escuela histórica (Savigny) La Escuela histórica del Derecho postula que las leyes deben interpretarse a partir de su tenor literal, pero tomando en cuenta otros elementos distintos del elemento gramatical: Elemento histórico, el más importante para Savigny, porque capta el «espíritu del pueblo», que es el verdadero origen del derecho. Elemento lógico. Elemento sistemático. Escuela de la libre investigación científica (Gény) Para Gény se interpreta el texto de la ley, pero además se toma en consideración el fin social del precepto (Métodos de interpretación y fuentes de Derecho Privado positivo, 1898). Según esta teoría, frente a las oscuridades o vacíos de la ley, el intérprete busca la solución partiendo de la idea de justicia y de la naturaleza real de las cosas, tomando en cuenta para ello datos históricos, económicos, sociales, etcétera. Escuela teleológica (Ihering) La interpretación teleológica consiste en determinar la finalidad de la ley. Su máximo representante es el romanista Ihering, quien sostiene que el fin hace el derecho. Esta escuela postula que toda norma jurídica debe estar creada y orientada hacia la sociedad, es decir, debe tener una finalidad eminentemente social. Además, toda ley es escrita por un motivo. El método teleológico manifiesta que la ley debe tomar en consideración el valor social y los valores sociales contenidos en ella. El derecho debe intentar conciliar los intereses individuales y sociales, pero que en caso de conflicto ha de inclinarse por el bien social. Para Ihering, la lucha por imponer la norma jurídica era un deber ético. Escuela formalista (Kelsen) Para Kelsen, la estructura del ordenamiento jurídico es jerárquica o escalonada: como una pirámide. El paso de un grado superior a otro inferior es siempre para Kelsen un acto de aplicación y creación normativa a la vez. Esto se produce porque la norma superior sería únicamente un marco o esquema que admite múltiples posibilidades en la dictación de la norma inferior. En el ámbito de la interpretación, el juez no tendría límites: cada escuela o modelo hermenéutico sería solo una posibilidad, de modo que cualquiera de ellas es válida, y su sentencia sería precisamente una expresión de la selección judicial en uso de esta posibilidad. Reglas de interpretación de la ley Existen dos sistemas de interpretación de la ley: reglado y no reglado. El sistema reglado establece claramente las normas de interpretación. El no reglado no las regula, sino que el legislador deja en libertad de acción al juez para interpretar la ley. Elemento gramatical Es aquel que se refiere al sentido de las palabras de la ley y a su ordenación sintáctica. Tradicionalmente doctrina y jurisprudencia han establecido que el sentido natural y obvio de las palabras es el que les dé el Diccionario de la lengua española. Excepcionalmente, las palabras de la ley deben entenderse de una forma distinta en dos situaciones: cuando el legislador las haya definido expresamente para ciertas materias (en cuyo caso debe estarse a esa definición y no a otra), y cuando se trate de palabras de una ciencia o arte, en cuyo caso deben entenderse en el sentido que les den los que profesan dicha ciencia o arte. Elemento lógico Es aquel elemento que atiende al espíritu o finalidad de la ley (ratio legis). Este elemento implica el análisis de la ley entendida como un todo armónico orientado hacia una misma finalidad, de modo que el contexto de la ley sirve para ilustrar el sentido de cada una de sus partes, de manera que haya entre todas ellas la debida correspondencia y armonía. Elemento histórico Es aquel que atiende a la historia del establecimiento de la ley. La historia fidedigna del establecimiento de la ley está constituida por todos los elementos que tomó en cuenta el legislador al hacer la ley. Para su estudio se debe recurrir al análisis de los mensajes y mociones, actas de los debates legislativos, informes de comisiones técnicas, etcétera. Elemento sistemático Es aquel que atiende a la armonía que debe existir entre el precepto legal y la totalidad del sistema jurídico. Este elemento viene a ser la extensión del elemento lógico a todo el ordenamiento jurídico. Interpretación de la costumbre jurídica El primer problema vinculado a la costumbre es la prueba de su existencia: es la única fuente formal que debe probarse. Enseguida, no existe en relación con ella un acto de autoridad que fije su texto de manera fehaciente. La costumbre por naturaleza no se encuentra escrita, así que no existiendo el tenor literal, no es posible aplicar el elemento gramatical. Como no existe un proceso de formación preestablecido, es difícil aplicar el elemento histórico. En este sentido, la interpretación de la costumbre debiera, pues, encuadrarse dentro de los elementos lógico y sistemático. Interpretación de los actos y contratos Normalmente los códigos civiles de cada país dedican una sección especial para fijar reglas de interpretación de los actos o contratos. Reglas como el principio de la buena fe entre contratantes, analogía contractual o interpretación de puntos oscuros a favor del deudor. Integración jurídica Concepto Es el proceso de construcción de una norma jurídica ante la ausencia de una solución para un caso genérico en un determinado sistema normativo. Clases de lagunas Lagunas normativas (de lege lata) y lagunas axiológicas (de lege ferenda) Las lagunas normativas de lege lata corresponden a la ausencia de una solución para un caso genérico en un sistema normativo determinado. Las segundas son falsas lagunas: aparecen al compararse el derecho actual con un futuro derecho mejor. Karl Engish las llamó «lagunas de lege ferenda». En ellas existe una solución normativa para el caso, pero esta es percibida como inadecuada, insuficiente o injusta porque el legislador no tuvo en cuenta alguna propiedad o rasgo relevante de acuerdo a los valores vigentes. Lagunas de la ley y lagunas del derecho Las lagunas del derecho son aquellas que afectan la totalidad del sistema normativo. Su existencia implicaría, simplemente, que hay casos que no tienen solución dentro de él. Los juristas partidarios de la plenitud hermética del ordenamiento jurídico (sobre todo Kelsen) rechazan la presencia de este tipo de lagunas. Las lagunas de ley, en cambio, son aquellas que afectan solo al Derecho legislado. Tienen carácter provisorio, puesto que pueden ser integradas por el juez. Lagunas de conocimiento y lagunas de reconocimiento Esta distinción fue introducida por los profesores argentinos Carlos Eduardo Alchourrón y Eugenio Bulygin. Ellos estiman indispensable discernir dos tipos de problemas: Los problemas relativos a las fallas del sistema normativo (que dan lugar a las lagunas normativas). Los problemas relativos al proceso de subsunción, es decir, a determinar si un caso individual y concreto queda comprendido en el caso genérico. Estos problemas dan origen a las lagunas de conocimiento (falta de información sobre hechos relativos al caso particular) y lagunas de reconocimiento (falta de determinación semántica). Mecanismos de integración Analogía El razonamiento analógico es aquel que va de lo particular a lo particular similar o coordinado. El razonamiento deductivo es aquel que va de lo general a lo particular. El razonamiento inductivo es aquel que va de lo particular a lo general. El único razonamiento absolutamente cierto es el razonamiento deductivo, ya que el razonamiento inductivo es, desde un punto de vista lógico, problemático. El único caso en que el razonamiento inductivo es cierto es aquel que comprende todos los casos particulares. Si razonamiento inductivo es problemático, el razonamiento por analogía lo es más, puesto que cada caso particular es diferente al otro. Por ende, ¿cómo puedo dársele el mismo tratamiento previsto para un caso particular a otro caso particular? Esa base solo puede ser la similitud o analogía de ambos casos o situaciones concretas. En el razonamiento por analogía existiría una mezcla de inducción y deducción. Principios generales del derecho La noción de «principios generales del derecho» depende de la corriente doctrinaria que se siga. Doctrina romanista. Los principios generales del derecho serían ciertas máximas o principios de justicia propios del derecho romano. Doctrina iusnaturalista. Los principios generales del derecho corresponderían a los primeros principios del derecho natural, son ciertos principios de justicia anteriores y superiores al ordenamiento jurídico positivo. Doctrina iuspositivista. Mientras no exista una constatación de estos principios en la norma jurídica, dichos principios no forman parte del ordenamiento jurídico y, por lo tanto, no son exigibles. De este modo los principios generales del derecho se confundirían con el derecho positivo. Equidad natural La aplicación pura del derecho puede llegar a tener una composición injusta. Por ello los romanos tenían un refrán que grafica esta idea: summum ius summa iniuria, esto es, en determinados casos la máxima aplicación del rigor de la ley acarrea la máxima injusticia. Por ello, es preciso que exista un correctivo a la generalidad de la ley y este correctivo es la equidad natural. Antinomia jurídica Requisitos para que exista antinomia legal Que ambas normas tengan los mismos ámbitos de vigencia normativa. Que la primera norma prohíba la conducta y la segunda la permita, o bien, que la primera la prohíba y la segunda la mande u ordene; o que la primera norma la mande u ordenen y la segunda norma la permita. Mecanismos para superar las antinomias Jerarquía. La norma superior prima sobre la norma inferior. Especialidad. La norma especial prima sobre la norma general. Temporalidad. La norma posterior prima sobre la norma anterior. Principios generales y equidad. Al tener dos normas jurídicas que cubran una misma área, de igual jerarquía, ambas con el mismo ámbito de vigencia y de igual fecha, debe recurrirse a los principios generales del derecho y a la equidad. Disciplinas jurídicas Derecho público El derecho constitucional estudia las normas fundamentales y constitutivas de un Estado. En la mayoría de Estados contemporáneos, los Estados se fundamentan en una norma jurídica fundamental, llamada Constitución. Guarda una estrecha relación con la política de un país. El derecho penal estudia la aplicación de la potestad punitiva (ius puniendi) del Estado. Es la rama del derecho que se ocupa de la represión del crimen a través de la imposición de penas a aquellos individuos que han cometido delitos. El derecho administrativo regula la estructura y organización de la Administración pública, generalmente dirigida por el poder ejecutivo, y las relaciones de la Administración con otros sujetos. Algunas ramas importantes son el derecho urbanístico o el derecho tributario. El derecho internacional público regula las relaciones entre los Estados, las organizaciones internacionales y demás integrantes de la sociedad internacional. Tradicionalmente, el derecho se ha dividido en las categorías de derecho público y de derecho privado. No obstante, esta clasificación ha ido quedándose en desuso ante la aparición de parcelas del ordenamiento jurídico en las que las diferencias entre lo público y lo privado no son tan evidentes. Uno de los exponentes de esta situación es el derecho laboral, en el que la relación privada entre trabajador y empleador se halla fuertemente intervenida por una normativa pública. Las ramas jurídicas, entre otras, son las siguientes: División del derecho Derecho público Tiene el objetivo de regular los vínculos que se establecen entre los individuos y entidades de carácter privado con los órganos relacionados con el poder público, o los vínculos de los poderes públicos entre sí, siempre que estos actúen amparados por sus potestades públicas legítimas y basándose en lo que la ley establezca. Derecho político: es la rama del derecho público que estudia el fenómeno político, la relación de mando y obediencia, la justificación, organización, elementos y clases de Estado, las formas de gobierno, la filosofía política y la sociología electoral. Derecho constitucional: es la rama del derecho público cuyo campo de estudio incluye el análisis de las leyes fundamentales que definen un Estado. De esta manera, es materia de estudio todo lo relativo a los derechos fundamentales y la regulación de los poderes públicos, así como también las relaciones entre los poderes públicos y los ciudadanos. A veces se confunde con el derecho político. Derecho administrativo: es la rama del derecho público que tiene por objeto específico la administración pública, la función administrativa, la regulación del Estado, sus órganos auxiliares y servicios públicos (a través de los cuales se mantiene el orden público y la seguridad jurídica). Derecho migratorio: es el conjunto de normas de derecho público que regulan el tránsito internacional de personas (nacionales y extranjeros); establece las modalidades y condiciones a que se sujetará el ingreso, permanencia o estancia y salida de extranjeros y lo relativo a la emigración y repatriación de nacionales. Derecho procesal: es la rama del derecho público que contiene un conjunto de reglas de derecho destinadas a la solución de conflictos de intereses entre los particulares o entre estos y el Estado, la organización y competencia de los tribunales, sus límites, la actividad procesal y los actores del proceso. Derecho internacional público: regula la conducta de los Estados, los cuales, para el mejor desarrollo de la comunidad mundial, han creado organismos bilaterales, así como tratados y organismos multilaterales. Lo distintivo de esta disciplina jurídica es que sus normas y todos los ordenamientos están dirigidos a regular la conducta de los Estados, relaciones y administración y conducción de los organismos internacionales, como la ONU. Derecho tributario o derecho financiero: es la rama del derecho público que trata el tema de la recaudación, clasificación de los impuestos de los ciudadanos dentro de un determinado Estado. Derecho penal: es el conjunto de normas que determinan los delitos, las penas que el Estado impone a los delincuentes y a las medidas de seguridad que el mismo establece para la prevención de la criminalidad. Derecho privado Son las normas que regulan las relaciones jurídicas entre personas legalmente consideradas y encontradas en situación de igualdad, en virtud de que ninguna de ellas actúa de autoridad estatal. Derecho civil: primera rama del derecho privado, constituida por un conjunto de normas que regulan las relaciones jurídicas de la vida ordinaria del ser humano. El derecho civil abarca distintos aspectos de nuestra actividad cotidiana, como las relaciones familiares, incluidos el matrimonio y su disolución; la maternidad, la patria protestad, la emancipación, la custodia y derechos de los cónyuges e hijos, el registro civil, la propiedad, el usufructo y las distintas clases de bienes; las sucesiones y testamentos; las obligaciones y los distintos tipos de contratos. Derecho mercantil: es una rama del derecho privado que regula los actos de comercio, los comerciantes, las cosas mercantiles, la organización y explotación de la empresa comercial y los distintos contratos mercantiles. Derecho internacional privado: se compone de reglas y trámites para los individuos en sus relaciones internacionales. También se ha definido como el derecho cuya función es reglamentar las relaciones privadas de los individuos en el ámbito nacional. Existen tres aspectos fundamentales que abarca el estudio del derecho internacional privado: conflicto de leyes entre dos o más Estados, el conflicto de la jurisdicción y la nacionalidad. Derecho social Conjunto de normas jurídicas que establece y desarrolla diferentes principios y procedimientos a favor de la sociedad integrada por individuos socialmente débiles, para lograr su convivencia en otras clases sociales, dentro de un orden jurídico. Derecho del trabajo o derecho laboral: es el conjunto de normas y principios que pretenden realizar la justicia social dentro del equilibrio de las relaciones laborales de carácter sindical e individual. El derecho del trabajo abarca las siguientes disciplinas: Derecho individual del trabajo. Derecho colectivo del trabajo. Derecho procesal del trabajo. Juntas regulan las relaciones entre patrones y sus trabajadores, estén o no representados por un sindicato, y a través de un contrato individual o colectivo de trabajo. Derecho económico: rama del derecho social que consiste en el conjunto de normas jurídicas que establecen la participación del Estado en la actividad económica, para promoverla, supervisarla, controlarla, orientarla o intervenir directamente en ella, procurando brindar certeza jurídica a todos los particulares de la cadena productiva y de consumo de un país. Derecho agrario: rama del derecho social que constituye el orden jurídico que regula los problemas de la tenencia de las tierras, así como diversas formas de propiedad y la actividad agrícola. Derecho ecológico: rama del derecho social constituida por un conjunto de normas jurídicas que tratan de prevenir y proteger el medio ambiente y los recursos naturales mediante el control de la actividad humana para lograr un uso y aprovechamiento sustentable de dichos recursos. El propósito fundamental del derecho ecológico es la conservación de un medio ambiente sano, pero también contempla normas que establecen las sanciones aplicadas a quienes no respeten las obligaciones de cuidado y conservación del mismo. Delito impropio de omisión En la actualidad se advierte un considerable aumento de conductas omisivas penalmente relevantes. Pensando en la responsabilidad del funcionario público omite acatar un mandato legal (como puede ser el mandato proveniente de una orden judicial), o del empresario que no retira un producto del mercado sabiendo que es defectuoso, lo que permite que el producto se siga vendiendo y/o utilizando, ocasionándose a raíz de ello resultados lesivos –daños, muertes, lesiones– que podría haberse evitado. Véase también Referencias Notas Bibliografía Cáceres Nieto, Enrique: ¿Que es el Derecho? Iniciación a una concepción lingüística. Cámara de Diputados, LVIII Legislatura – Universidad Nacional Autónoma de México: Instituto de Investigaciones Jurídicas. México, 2000. 15 p. ISBN 968-36-8220-0 Antinori, Néstor Eduardo: Conceptos básicos del Derecho - 1a ed. - Mendoza : Universidad del Aconcagua, 2006. 412 p. ISBN 987-23232-0-8 Bittar, Eduardo C. B. (2018). Introdução ao Estudo do Direito: humanismo, democracia e justiça. Brasil: São Paulo, 616p. ISBN 978-85-472-2319-9 Poder Judicial - gto.gob.mx: Conceptos jurídicos fundamentales Ochoa Hofmann, Alfonso E.: La (In) Definición del Derecho. 14 p. Enlaces externos Teorías sobre el origen del derecho Legislación de Argentina Legislación de España Legislación de México Legislación de los Estados Unidos de América Legislación de Venezuela Legislación internacional sobre los derechos de las personas
453_0
Dominio público
El dominio público engloba el patrimonio intelectual que está libre de toda exclusividad en su acceso y utilización. Incluye elementos que no tienen restricciones de derecho de autor establecidas, así como obras literarias, artísticas o científicas (lo que incluye aplicaciones informáticas) en las que ha expirado el plazo de protección del derecho de autor. Cada legislación nacional contempla un término de años contados desde la muerte del autor, para que estos derechos expiren. Por quedar excluidos de la protección del derecho de autor, elementos tales como las ideas, procedimientos, métodos de operación o conceptos matemáticos, son parte del dominio público. El software de dominio público es aquel que no tiene derechos de autor. Según el Convenio de Berna, que la mayoría de los países han firmado, todas las obras intelectuales quedan bajo el dominio de los derechos de autor, inclusive los programas informáticos. Las obras sujetas al derecho de autor pasan al dominio público a los 50 años de la muerte del autor. El plazo para el ingreso de las obras en dominio público se calcula a partir del 1 de enero del año siguiente de la muerte del autor, razón que ha llevado a que en esa fecha se celebre el Día del Dominio Público. El Convenio de Berna reconoce el derecho de los países signatarios a ampliar el plazo de la protección. Por ello, varios países han establecido plazos superiores, que llegan a 70, 80 o 100 años desde la muerte del autor. En España, por ejemplo, con la aprobación de la actual ley de 1987, tras 70 años después de la muerte del autor sus obras pasan al dominio público, mientras que en el caso de autores fallecidos antes del 7 de diciembre de 1987, se rigen por la anterior ley que protegía los derechos de autor hasta 80 años después del fallecimiento. En Estados Unidos el 1 de enero de 2019, luego de más de 20 años de espera, ingresó en el dominio público un gran lote de obras publicadas por primera vez en 1923 (la última liberación en lote al dominio público en ese país ocurrió en 1998, cuando Google no existía). Los países firmantes del Acuerdo de Aspectos de Propiedad Intelectual aplicado al Comercio (ADPIC o TRIPS, por su sigla en inglés), uno de los acuerdos de la Organización Mundial del Comercio, se comprometen a un mínimo de 50 años tras la muerte del autor. El titular del derecho de autor siempre puede aplicar a su obra el tipo de licencia que decida sin perder el reconocimiento de autoría o paternidad. Hay licencias restrictivas y otras permisivas (como GNU GPL). Dominio público, en este caso, implica que las obras pueden ser explotadas por cualquier persona, pero siempre respetando los derechos morales de sus autores (básicamente la paternidad), pues lo que en realidad expira son los derechos de autor de carácter patrimonial o económico, y se suele abreviar como PD (del inglés, public domain). Una obra de dominio público permite el uso gratuito de sus contenidos, puede ser copiada y distribuida sin vulnerar ningún derecho, es decir, lo que se libera es la obra y no la edición, es decir, su plena accesibilidad. Distinción entre uso y acceso libres Se considera que el uso del material de dominio público queda libre de toda exclusividad, nadie puede controlar o impedir su reproducción, se garantiza su uso gratuito, con la posibilidad de disfrutar intelectualmente del contenido de obras, dependiendo de algunos factores. Uno de los factores, es el acceso limitado a las obras, su alcance está impuesta por el derecho de propiedad intelectual, quien habilita y regula la distribución de los ejemplares que haya en circulación, es decir, las obras de dominio público no siempre están exentas de pago, lo que se espera es un bajo costo en el mercado para fomentar el acceso público. Otro factor, es la eficacia del acceso a las obras, ocurre cuando no son divulgadas, en algunos casos no son lo suficientemente originales, son anónimas y el público al no tener acceso pueden caer en el olvido. Para ello dominio público debe fomentar la iniciativa al acceso, garantizar el uso gratuito y colectivo de recursos culturales y artísticos en bibliotecas y otras organizaciones, para potenciar el acceso a los contenidos. Obras Obras huérfanas Existen obras cuyos autores o herederos se desconocen o son ilocalizables. Por lo tanto, no hay forma de contactar a los titulares para solicitar el permiso de utilización. Este tipo de obras, de las cuales no se puede determinar el estatus en lo referente a los derechos de autor, se denominan "obras huérfanas". En los países donde existen protocolos para la declaración de obras huérfanas, esta declaración suele incluir el requisito de una búsqueda exhaustiva, y, una vez que una obra se declara huérfana, su utilización pasa a estar permitida. Obras anónimas Una obra anónima es aquella que figura publicada sin que exista ningún dato que conduzca a conocer al autor de dicho trabajo. No entran en esta categoría las obras publicadas bajo seudónimo. Libros en dominio público La literatura en dominio público es toda aquella obra escrita que haya sido publicada desde los inicios de las primeras obras escritas o protoescritura, que fueron escritas libremente e incluyen todas las obras recientes publicadas bajo dominio público. Música en dominio público Si bien la música hace más de cuatro milenios no poseía registros como los que hoy conocemos, hace dos mil quinientos años, durante el gobierno de la dinastía Zhou, se crean numerosos instrumentos, además de continuar utilizando los Bianzhong. En la tumba del marqués Yi de Zeng se encontraron instrumentos de la época con instrucciones sobre afinaciones, escalas y transposiciones. Se trata del primer sistema de notación musical conocido que permitía no solo poder interpretar música en el momento sino quedar escrita y ser reinterpretada fielmente gracias a estas notaciones escritas. Desde esa fecha hasta inicios del la música es considerada de dominio público. Hace 1500 años se comienzan a utilizar además las notaciones Guqin en las que se detallan las tablaturas y posiciones de los dedos para tocar el instrumento. Posteriormente se crean las notaciones Gongche y Jianpu. En el , Guido de Arezzo introdujo el solfeo y la notación musical latina. Todo esto sentó las bases para la preservación de la música a nivel global, que pertenece al dominio público desde los inicios de la historia musical hasta la actualidad. El proyecto Musopen se ha dedicado a grabar esta música cuyos registros se encuentran en dominio público utilizando instrumentos musicales y equipos de captura de sonido. De este modo, no solo los escritos musicales están disponibles para el público en general sino también pueden ser apreciados en su forma audible, tanto en formatos de baja calidad o con pérdida —como los archivos «.ogg» (que fueron de gran utilidad durante los inicios de internet y en los primeros reproductores de música digital)— como en formatos sin pérdida —como el Flac—. En archive.org esta albergada toda la colección de música clásica grabada por el proyecto Museopen. Películas en el dominio público Las películas en el dominio público son todas aquellas que siempre han pertenecido al dominio público o aquellas en las que sus derechos de autor han expirado. En la actualidad existen miles de películas en el dominio público que representan más de horas de cinematografía. Entre ellas tenemos centenares de películas clásicas o de culto que pueden verse en línea o descargarse libremente en sitios como Internet Archive. También pueden descargarse o compartirse desde sitios como Public Domain Torrents. He aquí algunas de ellas: Charade (1963). Night of the Living Dead (1968). The Little Shop of Horrors. Software de dominio público En algunos casos, los autores de un software deciden publicarlo como de dominio público. Esto significa que cualquiera puede obtener las fuentes, modificarlo e incluso publicar sus modificaciones bajo una licencia diferente. Tal es el caso del gestor de bases de datos relacional SQLite, ampliamente utilizado sobre todo en dispositivos móviles. No hay que confundir el software libre con software de dominio público, ya que el software libre está sujeto a una licencia que, aunque pueda ceder al usuario un derecho de uso libre, su uso está limitado a lo establecido en la licencia que puede restringir su uso o distribución a ciertos requisitos, mientras que en el caso de software de dominio público, cualquiera tiene la facultad de copiar, distribuir o usar el software como quiera sin estar sujeto a ninguna licencia. Acceso a las obras bajo dominio público En 1971 Michael Hart lanzó el Proyecto Gutenberg para digitalizar y preservar todos los libros que pertenecen al dominio público. Inicialmente funcionó sobre Arpanet y posteriormente sobre internet. En 1996 Brewster Kahle lanzó Internet Archive para preservar libros, música y películas e incluso sitios web. En 2001 Jimmy Wales y Larry Sanger lanzaron Wikipedia y en 2003 lanzaron Wikisource. En 2005 Hugh McGuire inició el proyecto LibriVox, un sitio para crear y compartir audiolibros. Hay muchos países e incluso continentes que han dado pasos para permitir el acceso a la ciencia y la cultura. Uno de ellos es la Unión Europea, que en 2008 lanzó la biblioteca en línea Europeana, que cuenta con millones de libros, fotografías, audios, canciones y películas. Véase también Referencias Enlaces externos Carta del dominio público de Europeana Motivaciones para ceder obras al dominio público Diagrama de flujo para calcular el dominio público en España Diagrama de flujo para calcular el dominio público en obras literarias en Colombia, en la página 47. Calculadora de obras en dominio público Calculadora de dominio público colombiana Contenido libre Términos jurídicos
455_0
Dina (unidad de medida)
En física, una dina (símbolo: dyn) es la unidad de fuerza en el Sistema Cegesimal de Unidades. Equivale a 10−5N o, lo que es lo mismo, la fuerza que, aplicada a una masa de 1g, le comunica a esta una aceleración de 1cm/s² (centímetro por segundo al cuadrado, o gal). Es decir: 1 dyn = 1g·cm/s² = 10−5kg·m/s² = 10−5N 1 N = 1kg·m/s² = 105g·cm/s² = 100000dyn Tradicionalmente, la dina/centímetro se ha usado para medir tensiones superficiales. Historia Los nombres dina y ergio fueron inicialmente propuestos como unidades de fuerza y energía en 1861 por el físico inglés Joseph David Everett. Los nombres fueron utilizados de nuevo por el Comité de la Asociación Británica (al cual pertenecía Everett) que los propuso para el Sistema Cegesimal de Unidades, para el uso tanto de sistemas eléctricos como de sistemas dinámicos. Referencias Unidades de fuerza
457_0
Disciplinas afines usadas en Historia
Las disciplinas afines, o ciencias auxiliares de la historia son disciplinas académicas que ayudan a evaluar y utilizar las fuentes históricas. Entre estas disciplinas se incluyen tanto ciencias sociales como ciencias físico-naturales, como la fisiología, la antropología, la sociología, la economía y la geografía. La expresión, aunque es la tradicional y sigue siendo muy utilizada, puede implicar una subvaloración, razón por la cual vienen utilizándose otras expresiones eufemísticas que remarcan el hecho de que cada una de estas disciplinas tiene carácter autónomo y no subordinado frente a otras, y unas metodologías muy diferenciadas. A cada una de ellas se las considera ciencias o técnicas con entidad propia, y la razón de ser englobadas en una denominación conjunta (sea la de auxiliares u otras como ciencias y técnicas historiográficas o ciencias históricas) es el hecho de que, en determinados contextos, son utilizadas en las investigaciones históricas. Mediante el uso directo o la interpretación de los resultados obtenidos por distintas ciencias o técnicas, los historiadores analizan las fuentes documentales (materiales de todo tipo, originales de un determinado momento histórico o referidos a él por cualquier razón, que permiten extraer, ordenar y analizar información). Es usual que el historiador no esté familiarizado con todas las ciencias y técnicas posibles para ello, por lo que debe recurrir a las conclusiones de los especialistas de la disciplina de que se trate. Incluso en el caso de que esté capacitado para hacerlo él mismo, en ese punto de su investigación deberá seguir los métodos de esa ciencia o técnica, y aplicar seguidamente los de la historiografía para la inclusión de esos resultados en su investigación. Algunas de estas disciplinas constituyen aplicaciones especializadas de ciencias autónomas por sí mismas (muchas de ellas ni siquiera son ciencias sociales, sino ciencias físico-naturales), como la filología, la antropología, la economía, la geografía (ciencia que mantiene una estrecha relación académica con la historia), la química, la botánica o la zoología; otras, en cambio, nacen para el estudio de realidades específicas que varían con el tiempo, por lo que son imprescindibles para la datación (cronología) y análisis de las fuentes o de los documentos en sí mismos (el soporte de las fuentes): la numismática (probablemente la más antigua), la epigrafía, la paleografía, la diplomática, etc.; otras nacen en función de las subdivisiones temáticas de la historiografía, estrechamente vinculadas a un determinado tipo de fuentes, o como especialidades comparadas o cronológicas: la historia del derecho, la historia del arte, etc. Posiblemente la arqueología es la ciencia que más se ha desarrollado de todas ellas, produciendo una gran cantidad de subdisciplinas. Ciencias auxiliares de la historia Las ciencias auxiliares de la historia incluyen, pero no se limitan a: Archivística: Estudio y la teoría de la construcción y preservación de archivos que son colecciones de documentos, grabaciones y dispositivos de almacenamiento de datos. Antropología: La antropología estudia a la humanidad desde sus dos vertientes: la antropología física y la antropología social. Arqueología: Estudio de la actividad humana a través de la recuperación y análisis de la cultura material. Es el estudio de los restos materiales dejados por antiguas civilizaciones. Arqueogeografía: Rama de la teoría arqueológica, que se ocupa de la dinámica del espacio a lo largo del tiempo y ayuda a explorar otras dimensiones de los objetos geohistóricos. Cliometría: Aplicación sistemática de la teoría económica, las técnicas econométricas y otros métodos formales o matemáticos para el estudio de la historia (especialmente la historia social y económica). Es un enfoque cuantitativo (a diferencia de cualitativo o etnográfico) de la historia económica. Corografía Arte de describir o mapear una región o distrito y, por extensión, una descripción o mapa. Cronología: Ciencia de organizar eventos en su orden de ocurrencia en el tiempo. Considere, por ejemplo, el uso de una línea de tiempo o secuencia de eventos. También es "la determinación de la secuencia temporal real de eventos pasados". Demografía Diplomática: Estudio y análisis textual de documentos históricos. Documentación Ecología Economía Epigrafía: Estudio de las antiguas inscripciones. Etnología Ética Falerística: Estudia las órdenes, las fraternidades y los premios, como medallas y otras condecoraciones. Filatelia: Afición por coleccionar y clasificar sellos, sobres y otros documentos postales Filología estudio del lenguaje de las fuentes históricas. Genealogía: Estudio de las relaciones familiares. Geografía Heráldica estudio de los dispositivos armoriales. Geología Lingüística Metrología Numismática: Estudio de las monedas. Onomástica(u onomatología): Estudio de la etimología, la historia y el uso de nombres propios. Paleografía: Estudio de la escritura antigua. Paleontología Política Prosopografía: Investigación de un grupo histórico de individuos a través de un estudio colectivo de sus vidas Sigilografía: Estudio de los sellos. Sociología Toponimia: Estudio de topónimos. Vexilología: Estudio de las banderas Etnohistoria: rama de la historia y de la antropología que estudia a las comunidades originarias de una determinada región del mundo y su convivencia con otros grupos humanos, con la complejidad política e identitaria que ello representa. Semiótica: estudio de los símbolos y los signos, y la forma en que los humanos los crean. Mitología Comparada. Ciencias de la Religión. Etnobotánica. Subdivisiones temáticas de la ciencia histórica Historia ambiental Historia contrafactual Historia cultural Historia del arte Historia del derecho Historia de la ciencia Historia de la economía Historia de la educación Historia de la filosofía Historia de la Iglesia Historia de la literatura Historia de la medicina Historia de la música Historia de la tecnología Historia de las ideas Historia de las mujeres Historia de las religiones Historia económica y social Historia inmediata Historia nacional Historia política Historia Universal Véase también Historiografía Notas y referencias Bibliografía André Burguière, Diccionario Akal de ciencias históricas, 1991, ISBN 8446000377. Luis Ossio Sanjinés, Las ciencias y las disciplinas auxiliares de la historia en Introducción a la teoría de la historia, Editorial Juventud, 1981. María Ruiz Trapero, El papel de las Ciencias y Técnicas Historiográficas en la constitución de los estudios de Documentación en la Universidad española, Documentación de las ciencias de la información, 2000, número 23, 39-45 Francisco M. Gimeno Blay, De las ciencias auxiliares a la historia de la cultura escrita, Universitat de València, 1999, ISBN 8437039312. Ciencias históricas
458_0
Distancia
En las matemáticas, la distancia entre dos puntos del espacio euclídeo equivale a la longitud del segmento de la recta que los une, expresado numéricamente. En espacios más complejos, como los definidos en la geometría no euclidiana, el «camino más corto» entre dos puntos es un segmento recto con curvatura llamada geodésica. En física, la distancia es una magnitud escalar, que se expresa en unidades de longitud. Distancia en la geometría con coordenadas Distancia en la recta Existe una biyección (una correspondencia elemento a elemento) entre los puntos de una recta y el conjunto de los números reales, de modo que a cada número real le corresponde un solo punto, y a cada punto, exactamente un número real. Para hacer esto se precisa de un punto O y fijo de la recta y otro punto U, tal que por definición 1 es la abscisa de U. Se denota U(1). Están a la derecha los puntos de abscisa positiva, a la izquierda los puntos de abscisa negativa, y el origen O, tiene abscisa 0. Tal recta provista de abscisas para su puntos se denomina recta real. Si y son dos puntos de la recta real, entonces la distancia entre los puntos A y B es Distancia de dos puntos en el plano Si y son dos puntos de un plano cartesiano, entonces la distancia entre dichos puntos es calculable de la siguiente manera: Creese un tercer punto, llamese a partir del cual se forma un triángulo rectángulo. Prosiguiendo a usar el Teorema de Pitágoras , con el segmento AB cómo hipotenusa.. Prosiguiendo a reemplazar la fórmula por los elementos de cada segmento y realizando el procedimiento: Distancia en espacio métrico Desde un punto de vista formal, para un conjunto de elementos se define distancia o métrica como cualquier función matemática o aplicación de en que verifique las siguientes condiciones: No negatividad: - Es decir, la distancia es cero si y solo si se induce sobre el mismo punto Simetría: Desigualdad triangular: Si dejamos de exigir que , se obtiene el concepto de pseudodistancia o pseudométrica. La distancia es el concepto fundamental de la Topología de Espacios Métricos. Un espacio métrico no es otra cosa que un par , donde es un conjunto en el que definimos una distancia . En el caso de que tuviéramos un par y fuera una pseudodistancia sobre , entonces diríamos que tenemos un espacio pseudométrico. Si es un espacio métrico y , podemos restringir a de la siguiente forma: de forma que si entonces (es decir, ). La aplicación es también una distancia sobre , y como comparte sobre los mismos valores que , se denota también de la misma manera, es decir, diremos que es subespacio métrico de . Distancia de un punto a un conjunto Si es un espacio métrico, , y , podemos definir la distancia del punto al conjunto de la siguiente manera: . Es de destacar las siguientes tres propiedades: En primer lugar, en las condiciones dadas, siempre existirá esa distancia, pues tiene por dominio , así que para cualquier existirá un único valor real positivo . Por la completitud de y como la imagen de d está acotada inferiormente por 0, queda garantizada la existencia del ínfimo de ese conjunto, esto es, la distancia del punto al conjunto. Si entonces . Puede ser que pero , por ejemplo si es un punto de adherencia de . De hecho, la clausura de es precisamente el conjunto de los puntos de que tienen distancia 0 a . Los casos de distancia de un punto a una recta o de distancia de un punto a un plano no son más que casos particulares de la distancia de un punto a un conjunto, cuando se considera la distancia euclidiana. Puede utilizarse el siguiente método: Dado un punto (n,m) que no pertenece a la recta f(x), 1) Hallar la ecuación de la recta perpendicular a f(x) que pasa por (n,m). Esto acarrea dos pasos: hallar la pendiente (pendiente perpendicular) y hallar la ordenada al origen (reemplazando el punto (n,m) y despejando). 2) Hallar la intersección entre estas dos rectas. Esto acarrea dos pasos: hallar la x de la intersección por igualación, hallar la y de la intersección sustituyendo la x en cualquiera de las dos ecuaciones. Con esto se obtiene el punto (o,p) 3) Hallar la distancia entre (n,m) y (o,p). Distancia entre dos conjuntos Si es un espacio métrico, y , , , podemos definir la distancia entre los conjuntos y de la siguiente manera: . Por la misma razón que antes, siempre está definida. Además , pero puede ocurrir que y sin embargo . Es más, podemos tener dos conjuntos cerrados cuya distancia sea 0 y sin embargo sean disjuntos, e incluso que tengan clausuras disjuntas. Por ejemplo, el conjunto y el conjunto . Por un lado, , y , y por otro . La distancia entre dos rectas, la distancia entre dos planos, etc. no son más que casos particulares de la distancia entre dos conjuntos cuando se considera la distancia euclidiana. Distancia del camino más corto en una superficie curva . La distancia en línea recta entre dos puntos de la superficie de la Tierra no es muy útil para la mayoría de los propósitos, ya que no podemos hacer un túnel recto a través del manto terrestre. En su lugar, se suele medir el camino más corto a lo largo de la superficie de la Tierra, a vuelo de pájaro. Esto se aproxima matemáticamente mediante la distancia ortodrómica en una esfera. En términos más generales, el camino más corto entre dos puntos a lo largo de una superficie curva se conoce como geodésica. La longitud de arco de las geodésicas da una forma de medir la distancia desde la perspectiva de una hormiga u otra criatura no voladora que viva en esa superficie. Efectos de la relatividad En la teoría de la relatividad, debido a fenómenos como la contracción de la longitud y la relatividad de la simultaneidad, las distancias entre objetos dependen de la elección del marco de referencia inercial. A escalas galácticas y mayores, la medición de la distancia también se ve afectada por la expansión del universo. En la práctica, se utilizan varias medidas de distancia en cosmología para cuantificar dichas distancias. Otras distancias espaciales Las definiciones inusuales de distancia pueden ser útiles para modelizar ciertas situaciones físicas, pero también se utilizan en matemáticas teóricas: En la práctica, a menudo se está interesado en la distancia de viaje entre dos puntos a lo largo de las carreteras, en lugar de a vuelo de pájaro. En un plano cuadriculado, la distancia de viaje entre las esquinas de las calles viene dada por la distancia Manhattan: el número de manzanas este-oeste y norte-sur que hay que atravesar para llegar entre esos dos puntos. La distancia del tablero de ajedrez, formalizada como distancia de Chebyshov, es el número mínimo de movimientos que un rey debe realizar en un tablero de ajedrez para desplazarse entre dos casillas. Distancias metafóricas Muchas nociones abstractas de distancia utilizadas en matemáticas, ciencia e ingeniería representan un grado de diferencia o separación entre objetos similares. En esta página se dan algunos ejemplos. Distancias estadísticas En estadística y geometría de la información, las distancias estadísticas miden el grado de diferencia entre dos distribuciones de probabilidad. Hay muchos tipos de distancias estadísticas, típicamente formalizadas como divergencias; permiten entender un conjunto de distribuciones de probabilidad como un objeto geométrico llamado colector estadístico. La más elemental es la distancia euclídea al cuadrado, que se minimiza por el método de mínimos cuadrados; es la divergencia de Bregman más básica. La más importante en teoría de la información es la entropía relativa o divergencia de Kullback-Leibler, que permite estudiar de forma análoga la estimación de máxima verosimilitud geométricamente; es un ejemplo tanto de f-divergencia como de divergencia de Bregman (y de hecho el único ejemplo que es ambas). Las variedades estadísticas correspondientes a las divergencias de Bregman son variedades planas en la geometría correspondiente, lo que permite utilizar un análogo del teorema de Pitágoras (que se cumple para la distancia euclídea al cuadrado) para problemas inversos lineales en la inferencia por teoría de la optimización. Otras distancias estadísticas importantes son la distancia de Mahalanobis y la distancia de energía. Distancias de edición En informática, una distancia de edición o «métrica de cadena» entre dos cadenas mide lo diferentes que son. Por ejemplo, las palabras "perro" y "punto", que difieren sólo en una letra, están más cerca que "perro" y "gato", que no tienen ninguna letra en común. Esta idea se utiliza en correctores ortográficos y en teoría de la codificación, y se formaliza matemáticamente de varias formas diferentes, como distancia de Levenshtein, distancia de Hamming, distancia de Lee y distancia de Jaro-Winkler. Distancia en teoría de grafos En un grafo, la distancia entre dos vértices se mide por la longitud del camino de arista más corto entre ellos. Por ejemplo, si el grafo representa una red social, entonces la idea de seis grados de separación puede interpretarse matemáticamente como que la distancia entre dos vértices cualesquiera es como máximo seis. Del mismo modo, el número de Erdős y el número de Bacon -el número de relaciones de colaboración que separan a una persona del prolífico matemático Paul Erdős y del actor Kevin Bacon, respectivamente- son distancias en los grafos cuyas aristas representan colaboraciones matemáticas o artísticas. En las ciencias sociales En psicología, geografía humana, y las ciencias socialess, la distancia se teoriza a menudo no como una medida numérica objetiva, sino como una descripción cualitativa de una experiencia subjetiva. Por ejemplo, la distancia psicológica es "las diferentes formas en que un objeto puede estar alejado" del yo a lo largo de dimensiones como "el tiempo, el espacio, la distancia social y la hipotética". En sociología, la distancia social describe la separación entre individuos o grupos sociales en sociedad a lo largo de dimensiones como clase social, raza/etnia, género o sexualidad. Formalización matemática La mayoría de las nociones de distancia entre dos puntos u objetos descritas anteriormente son ejemplos de la idea matemática de un métrico. Una función métrica o función de distancia es una función que toma pares de puntos u objetos en números reales y satisface las siguientes reglas: La distancia entre un objeto y sí mismo es siempre cero. La distancia entre objetos distintos es siempre positiva. La distancia es simétrica: la distancia de a es siempre la misma que la distancia de a . La distancia satisface la desigualdad del triángulo: si , y son tres objetos, entonces Esta condición puede describirse informalmente como "las paradas intermedias no pueden acelerarte." Como excepción, muchas de las divergencias utilizadas en estadística no son métricas. Referencias y notas Bibliografía adicional Véase también Distancia de Mahalanobis Método de los cuadrantes centrados en un punto Desplazamiento (vector) Trayectoria Recta real extendida Medida de Lebesgue Distancia de un punto a una recta Bibliografía Interspace -A package for finding the distance between two vectors, numbers and strings. SciPy -Distance computations (scipy.spatial.distance) Julia Statistics Distance -A Julia package for evaluating distances (metrics) between vectors. Matemática elemental Longitud Análisis matemático Análisis funcional Geometría analítica
460_0
Dioscoreaceae
Las dioscoreáceas en sentido estricto (nombre científico Dioscoreaceae sensu stricto, es decir, circunscriptas excluyendo al género reubicado en su propia familia de las taccáceas), son una familia de plantas monocotiledóneas, como aquí circunscriptas son mayoritariamente tropicales, más o menos herbáceas con flores pequeñas y no muy coloridas, el ovario es ínfero y muchas veces con crestas o alas en el fruto. Muchas son trepadoras reconocidas por sus hojas de disposición espiralada, con pecíolo y pulvino en los dos extremos del pecíolo, la base de la hoja sin rodear el tallo. La lámina tiene muchas venas fuertemente longitudinales y venas secundarias transversas, o venación finamente reticulada. La familia fue reconocida por sistemas de clasificación modernos como el sistema de clasificación APG III del 2009 y el APWeb (2001 en adelante), si bien su circunscripción varía entre los dos sistemas de clasificación, ya que según el APWeb que la circunscribe de forma estricta, los análisis moleculares de ADN definieron que la familia es monofilética si se excluye de ella a la familia Taccaceae (con su único género Tacca), que en el APWeb, a enero de 2011, constituye una familia separada. Descripción Introducción teórica en Terminología descriptiva de las plantas Los caracteres se corresponden con la circunscripción de Judd et al. 2007, y Simpson 2005, los dos incluyen a Tacca (en el APWeb en su propia familia Taccaceae). Hierbas, muchas veces enredaderas trepadoras, perennes, con rizomas gruesos o muy hinchados como tubérculos, a veces con crecimiento secundario, tallo con haces vasculares que en el corte transversal se encuentran formando 1 o 2 anillos, sapogeninas esteroideas y alcaloideas comúnmente presentes. Pelos simples a estrellados, espinas ("prickles") a veces presentes. Hojas usualmente alternas y espirales, opuestas o verticiladas, simples, pero a veces palmadamente lobadas o compuestas, enteras, diferenciadas en peciolo y lámina, con venación palmada, las venas mayores convergiendo y conectadas por una red de venas de mayor orden, el peciolo usualmente con un pulvino superior y uno inferior, a veces con pestañas como estípulas, no envainadoras. Bulbitos a veces presentes en la axila de las hojas. Inflorescencias determinadas, pero a veces pareciendo indeterminadas, axilares, puede ser una panícula, o racimo, o umbela, o espiga de unidades monocásicas (reducidas a flores solitarias), en Tacca con brácteas involucrales prominentes. Flores usualmente unisexuales (entonces plantas dioicas), o bisexuales, radiales, pediceladas, bracteadas o no, epíginas. Tépalos 6, en dos verticilos de 3 piezas, todos iguales entre sí, separados a ligeramente conados, imbricados. Hipanto ausente o presente. Estambres 6 en dos verticilos de 3 piezas, a veces 3 (solo los del verticilo externo), diplostémonos (el verticilo externo del androceo opuesto al verticilo externo de los tépalos, y el interno opuesto al verticilo interno de los tépalos) o antisépalos (el verticilo del androceo opuesto al verticilo externo de los tépalos) filamentos separados a ligeramente conados (entonces "monadelfos"), libres o adnatos a la base de los tépalos. Las anteras son de dehiscencia longitudinal e introrsa o extrorsa, tetrasporangiadas, ditecas. Polen monosulcado a variadamente porado. Carpelos 3, conados, 3 lóculos, ovario ínfero, con placentación axilar o parietal, 1 o 3 estilos terminales, 3 estigmas, diminutos a ligeramente bilobados. Óvulos 1-2 a numerosos en cada lóculo. Nectarios en los septos de los ovarios o en la base de los tépalos. El fruto es usualmente una cápsula loculicida triangular y 3-alada y 1-3 locular a la madurez, pero a veces una baya o sámara. Las semillas usualmente aplanadas o aladas, el tegumento con pigmentos amarillo-marrones a rojos y cristales, sin albúmina. Embrión con 1 u ocasionalmente 2 cotiledones. Ver Huber (1998a, b) para un tratamiento de la familia. Ecología Como circunscripto por Judd et al. 2007 (con Taccaceae), ampliamente distribuidas en los trópicos y subtrópicos, con unas pocas en regiones templadas. Las inconspicuas flores son polinizadas por insectos, principalmente moscas. La dispersión es usualmente por viento, como indicado por los frutos especializados: cápsulas trialadas con semillas aplanadas o aladas o sámaras (como en las especies a veces segregadas como el género Rajania). Filogenia Introducción teórica en Filogenia Dioscoreaceae se ubica en Dioscoreales, un orden con muchas enredaderas de hojas reticuladas. Pueden ser distinguidas del fenéticamente similar Stemonaceae por sus flores trímeras (vs. dímeras) y el ovario consistentemente ínfero. También son fácilmente diferenciadas de Burmanniaceae, una familia con hierbas micoparasíticas con hojas como escamas. Las smilacacáceas también son enredaderas con hojas reticuladas, pero pueden ser fácilmente distinguidas por su ovario súpero, sus bayas de pocas semillas, y hojas con zarcillos pares estipulares. Muchos autores dividen a Dioscoreaceae sensu lato en varias familias (por ejemplo en Dioscoreaceae sensu stricto y Taccaceae), según otros unas circunscripciones tan ajustadas ignoran sus caracteres compartidos (Caddick et al. 2002a, 2002b). Sin embargo Stevens en el Angiosperm Phylogeny Website mantiene separados a Dioscoreaceae y Taccaceae, porque no aparecen como familias hermanas en el árbol filogenético a la fecha de edición de este artículo (enero de 2011). El pequeño género Stenomeris puede ser hermano del resto, que forman un clado sostenido por sinapomorfías putativas de raíces-tubérculo subterráneas, frutos alados o con crestas, y tegumento de la semilla con muchas capas con una capa interna cristalina. Tacca y Trichopus pueden haber divergido después, y los dos tienen flores perfectas. Tacca es morfológicamente distintiva y muchas veces ha sido tratada en su propia familia Taccaceae, es fácilmente distinguida del resto de los miembros de la familia por su hábito acaulescente, su placentación parietal, y sus inflorescencias inusuales escaposas y umbeladas con brácteas filamentosas. El resto de las especies de Dioscoreaceae son dioicas y pertenecen al género grande Dioscorea. Las relaciones filogenéticas dentro de este clado dioico han sido investigadas en la base de secuencias de ADN y morfología (Caddick et al. 2000, 20002a, Wilkin et al. 2005). Es evidente que el reconocimiento de géneros como Tamus y Rajania hacen a Dioscorea parafilético. Taxonomía Introducción teórica en Taxonomía La familia fue reconocida por el APG III (2009), el Linear APG III (2009) le asignó el número de familia 46. La familia ya había sido reconocida por el APG II (2003). Los géneros más representados quizás sean Dioscorea (400 especies) y Stenomeris (200 especies) (Judd et al. 2002). Los géneros (excluido Taccaceae), conjuntamente con su publicación válida y distribución se listan a continuación (según Royal Botanic Gardens, Kew): DioscoreaUBE en Filipinas Plum. ex L., Sp. Pl.: 1032 (1753). Cosmopolita. (Hoy en día incluye a Tamus y Rajania) Rajania L., Sp. Pl.: 1032 (1753). Caribe. (Hoy incluida en Dioscorea para que esta última no sea parafilética). Stenomeris Planch., Ann. Sci. Nat., Bot., III, 18: 319 (1852). Oeste y Centro de Malasia. Trichopus Gaertn., Fruct. Sem. Pl. 1: 44 (1788). Madagascar, SO de India a Pen. Malasia. Judd et al. 2007, Simpson 2005, incluyen a Tacca, en su propia familia Taccaceae en el APWeb. Los géneros, según Watson y Dallwitz 2007: Dioscorea Rajania (Hoy incluida en Dioscorea para que esta última no sea parafilética). Tamus (Hoy incluida en Dioscorea para que esta última no sea parafilética). Stenomeris Borderea EpipetrumWatson y Dallwitz 2007 ubican a Trichopus en su propia familia Trichopodaceae. Importancia económica Los "tubérculos" con mucho almidón de muchas especies de Dioscorea son comestibles, estos "tubérculos" no deben ser confundidos con las raíces de Ipomoea batatas, que también es conocido con el mismo nombre vulgar en inglés, "yam". Otras especies de Dioscorea'' son valiosas medicinalmente debido a la presencia de alcaloides o sapogeninas esteroideas, estas últimas son utilizadas en medicamentos antiinflamatorios y en anticonceptivos orales. También son utilizadas por pueblos indígenas como venenos o jabón. Véase también Clasificación de los organismos vegetales Referencias Referencias citadas Enlaces externos Dioscoreaceae
476_0
Dolina (geología)
Una dolina (palabra de origen esloveno que significa valle o depresión) alude a un tipo especial de depresión geológica característico de los relieves kársticos. En español se la conoce como «torca». Las dolinas, muy comunes en los macizos calcáreos, pueden estar ocupadas por lagos, como en la región del Adriático en Yugoslavia, la Península Balcánica, los Alpes de Europa central, en Estados Unidos (en Indiana, Kentucky, Tennessee) o en la Península de Yucatán en México, donde se denominan cenotes. Morfología Por lo general, no suelen presentarse en las regiones exclusivamente calcáreas, sino en las constituidas por margas, rocas que están formadas por caliza y arcilla en proporciones variadas. El proceso es relativamente simple: el anhídrido carbónico de la atmósfera se combina con el agua de lluvia para formar ácido carbónico, que ataca al carbonato cálcico de las margas (que no es soluble en el agua) y lo convierte en bicarbonato cálcico, que sí es soluble en el agua, por lo que queda libre la arcilla, la cual se deposita en las zonas bajas del relieve formando cubetas de terra rossa (término italiano que significa «tierra roja») llamadas dolinas, uvalas o valles cársticos como los poljés. La terra rossa es, por lo tanto, una arcilla de descalcificación y presenta una gran fertilidad en lo que respecta a su aprovechamiento agrícola. Al principio todas las dolinas son absorbentes (pierden agua por infiltración), luego ocurre que allá donde la escorrentía transporta arcilla, esta se deposita e impermeabiliza el fondo de la dolina convirtiéndola en un estanque que se llenará después de las lluvias y se desecará lentamente por la evaporación de las aguas. Una dolina en tanto que formación kárstica que se produce por disolución de la roca o por el derrumbe del techo de una cueva, formando depresiones de contornos circulares y de diverso tamaño. Cuando estas simas poseen paredes escarpadas muy abruptas se denominan torcas y si por el contrario son más suaves y sin escarpes se llaman hoyas. Por lo general se presenta como un pozo ancho, de fondo más o menos aplanado. Si el agua las inunda puede configurar lagunas. Tipos Las dolinas de disolución son la consecuencia de una lenta pérdida de materia del suelo, disuelta por las aguas pluviales que se encharcan y luego se infiltran en él. Las dolinas de hundimiento se forman al hundirse el terreno sobre una cavidad kárstica, por desplome del techo de esta. Si tienen un fondo plano y no muy profundo se dice que es una cubeta, o dolina de platillo, que tiene en su fondo terra rossa, lo que impide que continúen los procesos de carstificación. Sin embargo cuando el proceso continúa la dolina adopta un aspecto de embudo, tendremos entonces una dolina de pozo. La dolina de pozo puede comunicar con una sima: cavidad de paredes subverticales que comunica con la superficie. Normalmente las simas comunican con una red subterránea. Cuando se unen muchas dolinas se puede formar un uvala y a mayor escala un poljé. Véase también Aigualluts Cenote Ciudad Encantada Karst Marga Monasterio de Piedra Poljé Sima Sumidero Tollo Uvala Referencias Enlaces externos Accidentes del relieve Accidentes kársticos Dolinas Cuevas
479_0
Diamante
En mineralogía el diamante es un alótropo del carbono en el que los átomos de carbono están dispuestos en una variante de la estructura cristalina cúbica centrada en la cara denominada. El diamante es la segunda forma más estable de carbono, después del grafito; sin embargo, la tasa de conversión de diamante a grafito es despreciable a condiciones ambientales. El diamante tiene renombre específicamente como un material con características físicas superlativas, muchas de las cuales derivan del fuerte enlace covalente entre sus átomos. En particular, el diamante tiene la más alta dureza y conductividad térmica de todos los materiales conocidos por el ser humano. Estas propiedades determinan que la principal aplicación industrial del diamante sea en herramientas de corte y de pulido, además de otras aplicaciones. El diamante es uno de los minerales con más valor del mundo por sus características físicas y ópticas. Debido a su estructura cristalina extremadamente rígida, puede ser contaminado por pocos tipos de impurezas, como el boro y el nitrógeno. Combinado con su gran transparencia (correspondiente a una amplia banda prohibida de 5,5 eV), esto resulta en la apariencia clara e incolora de la mayoría de diamantes naturales. Algunas pequeñas cantidades de defectos o impurezas (aproximadamente una parte por millón) inducen un color de diamante azul (boro), amarillo (nitrógeno), marrón (defectos cristalinos), verde, violeta, rosado, negro, naranja o rojo. El diamante también tiene una dispersión refractiva relativamente alta, esto es, la propiedad de dispersar luz de diferentes colores, lo que resulta en su lustre característico. Sus excelentes propiedades ópticas y mecánicas, combinadas con una mercadotecnia eficiente, hacen que el diamante sea la gema más popular. La mayor parte de los diamantes naturales se forman en las condiciones de presión y temperatura extremas existentes a profundidades de 140 km a 190 km en el manto terrestre. Los minerales que contienen carbono proveen la fuente de carbono, y el crecimiento tiene lugar en períodos de 1 a 3,3 mil millones de años, lo que corresponde, aproximadamente, a entre el 75 % y el 25 % de la edad de la Tierra. Los diamantes son trasladados cerca de la superficie de la Tierra a través de erupciones volcánicas profundas por el magma, que se enfría en rocas ígneas conocidas como kimberlitas y lamproitas. Los diamantes también pueden ser producidos sintéticamente en un proceso de alta presión y alta temperatura que simula aproximadamente las condiciones en el manto de la Tierra. Una alternativa, y técnica completamente diferente, es la deposición química de vapor. Algunos materiales distintos al diamante, como la zirconia cúbica y carburo de silicio son denominados frecuentemente simulantes de diamantes, por semejarse al diamante en apariencia y muchas propiedades. Se han desarrollado técnicas gemológicas especiales para distinguir los naturales de los diamantes sintéticos y los simulantes de diamantes. Historia El nombre diamantes deriva del griego antiguo ἀδάμας (adámas), «propio», «inalterable», «irrompible, indomable», de ἀ- (a-), «sin» + δαμάω (damáō), «yo gobierno, yo domo». Sin embargo, se piensa que los diamantes fueron reconocidos y minados por primera vez en la India, donde podrían haberse encontrado depósitos aluviales significativos hace muchos siglos a lo largo de los ríos Penner, Krishna y Godavari. Se considera probado que los diamantes eran conocidos en la India desde hace al menos 3000 años y se conjetura que se conocieran hace ya 6000 años. Los diamantes han sido atesorados como gemas desde su uso como iconos religiosos en la antigua India. Su uso en herramientas de grabado también se remonta a la historia humana más temprana. La popularidad de los diamantes ha ido creciendo desde el debido a su creciente suministro, mejores técnicas de corte y pulido, crecimiento en la economía mundial, y campañas de publicidad innovadoras y exitosas. En 1813 Humphry Davy usó una lente para concentrar los rayos del sol en un diamante en una atmósfera de oxígeno y demostró que el único producto de la combustión era dióxido de carbono, demostrando que el diamante estaba compuesto de carbono. Posteriormente demostró que, en una atmósfera desprovista de oxígeno, el diamante se convierte en grafito. El uso más familiar de los diamantes hoy en día es como gemas usadas para adorno, un uso que se remonta a la antigüedad. La dispersión de la luz blanca en los colores espectrales es la característica gemológica primaria de las gemas diamantes. En el expertos en el campo de la gemología han desarrollado métodos para clasificar a los diamantes y otras gemas, basándose en las características más importantes de su valor como gema. Las cuatro características, conocidas informalmente como las cuatro C, desarrolladas por GIA, son usadas ahora de un modo común como descriptores básicos de los diamantes: estos son carat, cut, colour y clarity (peso, talla, color y pureza). El Cullinan, o Estrella del Sur, es el mayor diamante hallado en toda la historia del que se tenga conocimiento. Su valor era incalculable, hasta tal punto que debió ser troceado en varios fragmentos. Hay muchos diamantes en el mundo, pero muy pocos que puedan compararse al Cullinan, la pantera rosa del mundo real. Extraído de una mina que sir Thomas Cullinan poseía a 40 kilómetros de Pretoria, Sudáfrica, pesaba en bruto 3.106 quilates (621 gramos) y fue entregado como regalo de cumpleaños al rey británico Eduardo VII. Propiedades materiales Un diamante es un cristal transparente de átomos de carbono enlazados tetraedralmente (sp3) que cristaliza en la red de diamante, que es una variación de la estructura cúbica centrada en la cara. Los diamantes se han adaptado para muchos usos, debido a las excepcionales características físicas. Las más notables son su dureza extrema y su conductividad térmica (900–2.320 W/(m·K)), así como la amplia banda prohibida y alta dispersión óptica. Sobre los 1.700 °C (1.973 K / 3.583 °F) en el vacío o en atmósfera libre de oxígeno, el diamante se convierte en grafito; en aire la transformación empieza aproximadamente a 700 °C. Los diamantes existentes en la naturaleza tienen una densidad que va desde 3,15–3,53 g/cm³, con diamantes muy puros generalmente extremadamente cerca a 3,52 g/cm³. Dureza El diamante es el material natural más duro conocido hasta el momento (aunque en 2009 se iniciaron unos estudios que parecen demostrar que la lonsdaleíta es un 58% más dura) en el que la dureza está definida como la resistencia a la rayadura. El diamante tiene una dureza de 10 (la máxima) en la escala de Mohs de dureza de minerales. Los diamantes naturales más duros en el mundo son los de los campos de Copeton y Bingara, ubicados en el área de New England en Nueva Gales del Sur, Australia. Fueron llamados can-ni-faire ("no puede hacerse nada con ellos", una combinación del inglés "can" = poder, italiano "ni" = no y el francés "faire" = hacer) por los cortadores en Amberes cuando empezaron a llegar en cantidades desde Australia en la década de 1870. Estos diamantes son generalmente pequeños, octaedros perfectos a semiperfectos, y se usan para pulir otros diamantes. Su dureza está asociada con la forma de crecimiento del cristal, que es en una sola etapa. La mayor parte de los otros diamantes muestran más evidencias de múltiples etapas de crecimiento, lo que produce inclusiones, fallas y planos de defectos en la red cristalina, todo lo cual afecta a su dureza. Es posible tratar diamantes regulares bajo una combinación de presión y temperatura altas para producir diamantes que son más duros que los diamantes usados en dispositivos de dureza. La dureza de los diamantes contribuye a su aptitud como gema. Debido a que solo pueden ser rayados por otros diamantes, mantienen su pulido extremadamente bien. A diferencia de otras gemas se adaptan bien al uso diario debido a su resistencia al rayado; tal vez esto contribuye a su popularidad como la gema preferida en anillos de compromiso y anillos de matrimonio, que suelen ser usados todos los días durante décadas. El uso industrial de los diamantes ha sido asociado históricamente con su dureza; esta propiedad hace al diamante el material ideal para herramientas de cortado y pulido. Como material natural más duro conocido, el diamante puede ser usado para pulir, cortar, o erosionar cualquier material, incluyendo otros diamantes. Las adaptaciones industriales comunes de esta habilidad incluyen brocas y sierras, y el uso de polvo de diamante como abrasivo. Los diamantes de grado industrial menos caros, conocidos como bort, con muchas fallas y color más pobre que las gemas, son usados para tales propósitos. El diamante no es apto para maquinarias de aleaciones ferrosas a altas velocidades, puesto que el carbono es soluble en hierro a las altas temperaturas creadas por la maquinaria de alta velocidad, conduciendo a un desgaste incrementado en las herramientas de diamante cuando se las compara con alternativas. Estas sustancias pueden rayar al diamante: Algunos diamantes son más duros que otros. Los agregados nanocristalinos de diamantes producidos por tratamiento de presión alta y temperatura alta del grafito o fullerenos (C60). Nitruro de boro cúbico (Borazón) Una forma hexagonal del diamante denominada lonsdaleíta, que se ha predicho teóricamente ser 58% más fuerte que el diamante. Conductividad eléctrica Otras aplicaciones especializadas también existen o están siendo desarrolladas, incluyendo su uso como semiconductores: algunos diamantes azules son semiconductores naturales, en contraste a la mayoría de otros diamantes, que son excelentes aislantes eléctricos. La conductividad y color azul se originan de la impureza de boro. El boro sustituye a átomos de carbono en la red de diamante, donando un hueco en la banda de valencia. Comúnmente se observa una conductividad sustancial en diamantes nominalmente no dopados, que han crecido por deposición química de vapor. Esta conductividad está asociada con especies relacionadas al hidrógeno adsorbido en la superficie, y puede ser eliminada por recocido u otros tratamientos de superficie. Tenacidad La tenacidad se refiere a la habilidad del material de resistir la ruptura debido a un impacto fuerte. La tenacidad del diamante natural ha sido medida como 2,0 MPa·m1/2, y el factor de intensidad de tensión crítica es 3,4 MN·m−3/2. Estos valores son altos comparados con otras gemas, pero bajos comparados con la mayoría de materiales de ingeniería. Como con cualquier material, la geometría microscópica de un diamante contribuye a su resistencia a la fractura. El diamante tiene un plano de fractura y de ahí es más frágil en algunas orientaciones que en otras. Los cortadores de diamantes usan este atributo para quebrar algunas piedras, como paso previo al facetado. Yacimientos En África: En América: En Oceanía: En Asia: (Estepa siberiana). Color El diamante tiene una amplia banda prohibida de 5,5 eV (o 225 nm) que abarca todo el espectro visible, lo que significa que el diamante puro debería transmitir la luz visible y aparecer como un cristal transparente e incoloro. El origen de los colores en el diamante está en los defectos de red y las impurezas. La mayoría de impurezas en los diamantes consisten en el reemplazo de un átomo de carbono en la red cristalina. La impureza más común, el nitrógeno, ocasiona una coloración amarilla ligera a intensa, dependiendo del tipo y concentración de nitrógeno presente. El Gemological Institute of America (GIA) clasifica la baja saturación amarilla y marrón como diamantes en el rango normal de color, y aplica una escala de graduación desde 'D' (incoloro) hasta 'Z' (ligeramente amarillo). El nitrógeno es, con diferencia, la impureza más común encontrada en las gemas diamantes y es responsable del amarillo y el marrón en los diamantes (véase también: centro nitrógeno-vacante). El boro es responsable del color azul grisáceo. Los diamantes de color diferente, como el azul, son llamados diamantes de "colores fantasía", y caen bajo una escala de graduación diferente. Los metales de transición Ni y Co, que se usan comúnmente para el crecimiento de diamante sintético por las técnicas de presión alta y temperatura alta, han sido detectados en los diamantes como átomos individuales, sin embargo la concentración máxima es 0,01% para el Ni, e incluso mucho menor para el Co. Obsérvese, sin embargo, que puede introducirse virtualmente cualquier elemento en el diamante por implantación de iones. El color en los diamantes tiene dos fuentes adicionales: irradiación (usualmente por partículas alfa) que ocasiona el color en los diamantes verdes y deformaciones físicas del cristal de diamante conocidas como deformaciones plásticas. La deformación plástica es la causa del color en ciertos diamantes marrones y tal vez en algunos rosados y rojos. En orden de rareza, los diamantes incoloros, con diferencia los más comunes, son seguidos por los amarillos y marrones, luego por los azules, verdes, negros, blancos translúcidos, rosados, violetas, naranjas, morados, y los más raros, los rojos. Se llaman diamantes «negros» a diamantes que no son verdaderamente negros, pero que contienen numerosas inclusiones oscuras que le dan a la gema una apariencia oscura. El diamante negro más conocido y con mayor valor es el «Diamante de Orlov Negro», aunque es más valioso por su historia que por el hecho de ser de color negro. (No confundir con el Diamante de Oslov). En el 2008, el Diamante Wittelsbach, un diamante azul de 35,56 quilates (7,11 g) que se cree que pudo haber pertenecido a los Reyes de España, alcanzó la suma de más de US$24 millones en una subasta de Christie's. En el 2009, un diamante azul de 7,03 quilates (1,41g) alcanzó el más alto precio por quilate jamás pagado para un diamante, cuando fue vendido en subasta por 10,5 millones de francos suizos (6,97 millones de Euros o US$9,5 millones en aquel tiempo) lo que excedía notablemente los US$1,3 millones por quilate. Identificación Los diamantes pueden ser identificados por su alta conductividad térmica. Su elevado índice de refracción también es indicativo, pero otros materiales tienen similar refractividad. Los diamantes cortan el vidrio, pero esto no identifica positivamente a un diamante, debido a que otros materiales, como el cuarzo, también se encuentran sobre el vidrio en la escala de Mohs y también pueden cortar el vidrio. Los diamantes fácilmente rayan a otros diamantes, pero esto daña a ambos diamantes. Existen métodos físicos para la identificación de los diamantes, como el empleo de líquidos pesados; se trata de, empleando como criterio la densidad del diamante, sumergir la muestra en una solución de yoduro de metileno, en la que la gema flotará o se hundirá si se trata de un diamante o no. Hace unos años se fabricaron unos dispositivos que emplean la conductividad térmica del diamante para distinguirlo del resto de gemas transparentes. En un primer momento resultaron muy útiles, sobre todo para aquellos que no poseían conocimientos gemológicos, ya que simplemente tocando la gema con estos aparatos se podía determinar si esa gema era diamante o no. Pero con la aparición de la moissanita, otra nueva imitación del diamante, que posee una conductividad térmica muy similar a la del diamante, la fiabilidad de estos aparatos quedó en entredicho. También existen métodos de observación directa para identificar un diamante. Los microscopios gemológicos permiten observar las inclusiones internas de la gema objeto de estudio, y un experto puede determinar que inclusiones son características de un diamante y cuáles no. La transparencia es otra característica del diamante, siendo menos transparente que alguna de sus imitaciones. Historia natural La formación del diamante natural requiere condiciones muy específicas —exposición de materiales que contienen carbono a presión alta, variando desde 45 a 60 kilobares,— aunque ocasionalmente cristalizan diamantes a profundidades de 300-400 km. pero a un rango de temperatura comparativamente bajo que va desde aproximadamente 900-1300 °C. Estas condiciones se encuentran en dos lugares en la Tierra; en el manto de la litosfera bajo placas continentales relativamente estables, y en el sitio de impacto de meteoritos. Formación en cratones Las condiciones para que suceda la formación de diamante en el manto de la litosfera ocurren a profundidad considerable, correspondiendo a los requerimientos antes mencionados de temperatura y presión. Estas profundidades están estimadas entre 140 y 190 km. La tasa a la que la cambia la temperatura con el incremento de profundidad en la Tierra varía grandemente en diferentes partes de la Tierra. En particular, bajo las placas oceánicas, la temperatura sube más rápidamente con la profundidad, más allá del rango requerido para la formación del diamante a la profundidad requerida. La combinación correcta de temperatura y presión solo se encuentra en las partes gruesas, viejas y estables de las placas continentales, donde existen regiones de litosfera conocidas como cratones. Una larga estancia en la litosfera cratónica permite a los cristales de diamante crecer más grandes aún. A través de estudios de composición isotópica de carbono (similar a la metodología usada en datación por radiocarbono, excepto con los isótopos estables C-12 y C-13), se ha encontrado que el carbono de los diamantes proviene de fuentes tanto orgánicas como inorgánicas. Algunos diamantes, conocidos como harzburtigícos, son formados de carbono inorgánico encontrado originalmente en lo profundo del manto terrestre. En contraste, los diamantes eclogíticos contienen carbono orgánico de detritus orgánico que ha sido arrastrado hacia abajo desde la superficie de la corteza terrestre a través de subducción (ver tectónica de placas) antes de transformarse en diamante. Estas dos fuentes diferentes de carbono tienen diferentes razones 13C:12C mensurables. Los diamantes que han llegado a la superficie de la Tierra son generalmente bastante viejos, yendo desde mil millones a 3,3 mil millones de años. Esto es del 22% a 73% de la edad de la Tierra. Los diamantes ocurren más frecuentemente como octaedros eudrales o redondeados y octaedros gemelados denominados maclas. Como la estructura del cristal de diamante tiene una disposición cúbica de los átomos, tienen muchas facetas que pertenecen a un cubo, octaedro, rombicosidodecaedro, tetraquishexaedro o hexaquisoctaedro. Los cristales pueden redondearse y las aristas inexpresivas pueden elongarse. Algunas veces se les encuentra crecidos juntos o formando cristales dobles "gemelados" en las superficies del octaedro. Estas formas diferentes y hábitos de los diamantes resultan de las diferentes circunstancias externas. Los diamantes (especialmente aquellas con las caras del cristal redondeadas) se encuentran comúnmente recubiertos en nyf, una piel opaca gomosa. Formación en cráteres de impacto de meteoritos Los diamantes también pueden formarse en otros eventos naturales de alta presión. Se han encontrado diamantes muy pequeños, conocidos como microdiamantes o nanodiamantes, en los cráteres de impacto de meteorito. Aunque en el Cráter Popigai en Siberia los diamantes alcanzan un tamaño de entre 0,5 a 2 mm con algunos ejemplares de 10mm. Se considera que es el mayor yacimiento del mundo de diamantes de impacto.38​ Tales eventos de impacto crean zonas de choque de alta presión y temperatura, idóneas para la formación de diamantes. Los microdiamantes del tipo de impacto pueden ser usados como un indicador de cráteres de impacto antiguos. Algunos de estos diamantes poseen empaquetados hexagonales(EH), Lonsdaleíta, a diferencia de los comunes que poseen un empaquetado cúbico (EC).14​. Formación extraterrestre No todos los diamantes encontrados en la Tierra se originaron aquí. Un tipo de diamante denominado diamante carbonado, el cual se encuentra en Sudamérica y África, puede haber sido depositado ahí por un impacto de asteroide (no formado por el impacto) hace aproximadamente 3 mil millones de años. Estos diamantes pueden haberse formado en el medio interestelar, pero en el 2008, no había consenso científico acerca de cómo se originaron los diamantes carbonados. Los granos presolares en muchos meteoritos encontrados sobre la Tierra contienen nanodiamantes de origen extraterrestre, formados probablemente en supernovas. La evidencia científica indica que las estrellas enanas blancas tienen un núcleo de carbono y oxígeno cristalizado. El más grande de estos encontrado en el universo hasta ahora, BPM 37093, está ubicado a 50 años luz, en la constelación Centauro. Una nota de prensa del Harvard-Smithsonian Center for Astrophysics describió el núcleo estelar de 2500 millas de diámetro como un diamante. Es conocido como Lucy, por la canción «Lucy in the Sky with Diamonds» («Lucy en el cielo con diamantes») de The Beatles. Llegada a la superficie La roca portadora de diamantes es llevada cerca a la superficie a través de erupciones volcánicas de origen profundo. El magma para tal volcán debe originarse a una profundidad donde los diamantes puedan ser formados—150 km o más (tres veces o más la profundidad de la fuente de magma para la mayoría de los volcanes)—. Esto es algo que sucede relativamente rara vez. Las chimeneas contienen el material que fue transportado hacia la superficie por acción volcánica, pero no fue eyectada antes de que la actividad volcánica cesara. Durante la erupción, estas chimeneas están abiertas a la superficie, resultando en circulación abierta; en las chimeneas se han encontrado muchos xenolitos de rocas superficiales, e incluso madera y/o fósiles. Las chimeneas volcánicas que llevan diamantes están relacionados estrechamente a las regiones más viejas y frías de la corteza continental (cratones). Esto es porque los cratones son muy gruesos, y su manto litosférico se extiende a profundidades suficientemente grandes tal que los diamantes sean estables. No todas las chimeneas contienen diamantes, e incluso menos contienen suficientes diamantes para hacer el minado económicamente viable. El magma en chimeneas volcánicas es generalmente de uno de dos tipos característicos, que se enfrían en roca ígnea conocida tanto kimberlita o lamproita. El magma en sí mismo no contiene diamantes; sin embargo, actúa como un elevador que lleva las rocas formadas en la profundidad (xenolitos), minerales (xenocristos), y fluidos hacia arriba. Estas rocas son característicamente ricas en minerales de olivino, piroxeno, y anfíbol, ricos en magnesio que suelen ser alterados a serpentina por el calor y los fluidos durante y después de la erupción. Ciertos minerales indicadores ocurren típicamente en kimberlitas diamantíferas, y son usadas como trazadores mineralógicos por los prospectores, quienes siguen las huellas del indicador de regreso a la chimenea volcánica que pueden contener diamantes. Estos minerales son ricos en cromo (Cr) o titanio (Ti), elementos que le imparten colores brillantes a los minerales. Los minerales indicadores más comunes son los granates cromianos (usualmente piropo de Cr, rojo brillante, y granates verdes de las series ugranditas), granates eclogíticos, piropo de Ti anaranjado, espinelas rojas de alto Cr, cromita oscura, diópsido de Cr verde brillante, olivino verde vidrioso, picroilmenita negra, y magnetita. Los depósitos de kimberlita son conocidos como suelo azul, por las partes profundamente serpentinizadas de los depósitos, o como suelo amarillo, por la arcilla de esmectita cercana al suelo y carbonato meteorizado y parte oxidada. Una vez que los diamantes han sido transportados a la superficie por el magma en una chimenea volcánica, pueden ser erosionados afuera y distribuidos en un área grande. Una chimenea volcánica que contiene diamantes es conocida como una fuente primaria de diamantes. Las fuentes secundarias de diamantes incluyen a todas las áreas donde hay un número significativo de diamantes, erosionados de su matriz de kimberlita o lamproíta, y acumulados por la acción del agua o el viento. Estos incluyen depósitos aluviales y depósitos existentes en líneas costeras existentes y antiguas, donde los diamantes tienden a acumularse debido a su tamaño y densidad similares. Los diamantes también han sido encontrados rara vez en depósitos dejados atrás por glaciares (notablemente en Wisconsin e Indiana); sin embargo, en contraste con los depósitos aluviales, los depósitos glaciales son menores y, en consecuencia, no son fuentes comerciales viables de diamante. Mercados comerciales La industria del diamante puede ser separada en dos categorías básicamente distintas: una relacionada con los diamantes de grado gema, y otro para los diamantes de grado industrial. Aunque existe un gran comercio en ambos tipos de diamantes, los dos mercados actúan en formas drásticamente distintas y diferentes. Gemas Existe un gran comercio en diamantes de grado gema. A diferencia de los metales preciosos, tales como el oro o el platino, los diamantes gema no son comercializados como una mercancía. Contrario a la creencia popular, hay un mercado bien establecido para la reventa de diamantes pulidos y diamantes de corte en brillante. Un aspecto remarcable del comercio de diamantes de calidad gema es su altísima concentración: el comercio global y la talla de diamantes están limitados a solo unas pocas localidades. El 92% de los cortes de piezas de diamantes en el 2003 fueron en Surat, Guyarat, India. Otros centros importantes de talla y comercio de diamantes son Amberes, Londres, Nueva York, Tel Aviv, y Ámsterdam. Una sola compañía —De Beers— controla una proporción significativa del comercio en diamantes. Tienen su centro en Johannesburgo, Sudáfrica y en Londres, Inglaterra. Un factor que contribuye es la naturaleza geológica de los depósitos de diamante: algunas minas primarias grandes de pipas de kimberlita contribuyen para porciones significativos del mercado (tal como la mina de diamantes de Jwaneng en Botsuana, que es un gran yacimiento operado por De Beers que puede producir entre 12.5 a 15 millones de quilates de diamantes por año), mientras que los depósitos secundarios aluviales tienden a fragmentarse entre diferentes tipos de operadores, debido a que pueden ser dispersados por varios cientos de km² (por ejemplo, los depósitos aluviales en Brasil). La producción y distribución de diamantes está grandemente consolidada en las manos de unos pocos jugadores clave, y concentrados en centros de intercambio de diamantes tradicionales. Siendo el más importante, Amberes, donde se manejan el 80% de los diamantes brutos, 50% de todos los diamantes cortados y más del 50% de diamantes brutos, cortados e industriales combinados. Esto hace a Amberes la "capital mundial de diamante" 'de facto'. Sin embargo, Nueva York, junto con el resto de los Estados Unidos, es donde aproximadamente el 80% de los diamantes del mundo son vendidos, incluyendo ventas en subasta. Asimismo, también terminan en Nueva York los diamantes más grandes y de formas brutas más inusuales. La compañía De Beers, como el más grande extractor de diamantes en el mundo, mantiene una posición claramente dominante en la industria, y ha sido así desde su fundación en 1888 por el imperialista británico Cecil Rhodes. De Beers posee o controla una proporción significativa de las instalaciones mundiales de producción de diamante bruto (minas) y canales de distribución para los diamantes de calidad gema. La compañía y sus subsidiarias poseen minas que producen casi el 40 por ciento de la producción mundial anual de diamantes. En algún tiempo se pensó que más del 80% de la producción mundial de diamantes brutos pasaba a través de la Diamond Trading Company (DTC, una subsidiaria de De Beers) en Londres, pero actualmente la cifra está estimada en aproximadamente 40 por ciento. De Beers vendió una vasta mayoría de sus reservas de diamantes a finales de la década de 1990 - principios de la década de 2000 y el resto representa principalmente inventario en trabajo (diamantes que están siendo ordenados antes de su venta). Esto fue bien documentado en la prensa pero permanece poco conocido al público en general. La campaña de publicidad de diamantes de De Beer es apreciada como una de las campañas más exitosas e innovadoras en la historia. N. W. Ayer & Son, la firma publicitaria retenida por De Beers a mediados del , alcanzó éxito en revivir el mercado americano de diamantes y abrió nuevos mercados, incluso en países donde no había existido una tradición de diamantes. La multifacética campaña publicitaria de N.W. Ayer incluía publicidad por emplazamiento, publicitando el diamante en sí, en vez de la marca De Beers, y construyendo asociaciones con celebridades y realeza. Esta campaña coordinada duró décadas y continúa hoy en día: tal vez es capturado mejor por el eslogan: "a diamond is forever" (un diamante es para siempre). Debajo de la cadena de suministros, los miembros de la Federación mundial de bolsas de diamantes (WFDB) actúan como un medio para el intercambio global de diamantes, comerciando tanto diamantes pulidos y brutos. La WFDB consiste de bolsas de diamantes independientes en centros principales de corte tales como Tel Aviv, Amberes, Johannesburgo y otras ciudades en los Estados Unidos, Europa y Asia. En el 2000, la WFDB y la International Diamond Manufacturers Association establecieron el World Diamond Council para evitar el tráfico de diamantes usados para subvencionar guerras y actos inhumanos. Actividades adicionales de la WFDB incluyen también la promoción del World Diamond Congress cada dos años, así como el establecimiento del International Diamond Council (IDC) para supervisar la graduación de los diamantes. Grado industrial El mercado para los diamantes de grado industrial opera de forma muy diferente de su contraparte ornamental. Los diamantes industriales son valorados mayoritariamente por su dureza y conductividad térmica, haciendo algunas de las características gemológicas de los diamantes, tales como claridad y color, irrelevantes para la mayoría de aplicaciones. Esto ayuda a explicar por qué el 80% de los diamantes minados (igual a aproximadamente 100 millones de quilates, o 20.000 kg anualmente), no aptos para su uso como piedras preciosas, son destinadas al uso industrial. Además de los diamantes minados, los diamantes sintéticos encontraron aplicaciones industriales casi inmediatamente tras su invención en la década de 1950; se producen anualmente otros 3 mil millones de quilates (600 toneladas métricas) de diamantes sintéticos para uso industrial. Actualmente, aproximadamente el 90% del material abrasivo de las lijas de diamante es de origen sintético. El uso industrial dominante de los diamantes es el corte, perforación, lijado y pulido. La mayoría de usos de diamantes en estas tecnología no requiere de diamantes grandes; en efecto, la mayoría de diamantes que son de calidad de gema, excepto por su tamaño pequeño, pueden encontrar un uso industrial. Los diamantes son insertados en la punta de taladros u hojas de sierras, o esparcidos en un polvo para su uso en aplicaciones de lijado y pulido. Algunas aplicaciones especializadas incluyen el uso en laboratorios como contenedor para experimentos de alta presión, rodamientos de alto desempeño, y un uso limitado en ventanas especializadas. Con los avances continuos hechos en la producción de diamantes sintéticos, las aplicaciones futuras se están volviendo factibles. Está generando mucha excitación el posible uso del diamante como un semiconductor apto para construir microchips, o el uso del diamante como un disipador en electrónica, aunque antaño en esta rama de la tecnología se empleó ampliamente en la fabricación de agujas de las cápsulas fonocaptoras de los tocadiscos. El límite entre los diamantes de calidad de gema y los diamantes industriales está definido pobremente, y parcialmente depende de las condiciones de mercado (por ejemplo, si la demanda de diamantes pulidos es alta, algunas piedras aptas serán pulidos en gemas pequeñas o de baja calidad en vez de ser vendidas para uso industrial). Dentro de la categoría de diamantes industriales, hay una subcategoría que comprende las piedras de menor calidad, principalmente piedras opacas, que son conocidas como bort o 'boart'. Cadena de suministro Aproximadamente 130 millones de quilates (26 000 kg) son minados anualmente, con un valor total cercano a USD $9 mil millones, y aproximadamente 100.000 kg son sintetizados anualmente. Más o menos el 49% de los diamantes provienen de África central y del sur, aunque se han descubierto fuentes significativas del mineral en Canadá, India, Rusia, Brasil y Australia. Se les mina de la kimberlita y lamproíta presentes en pipas volcánicas, que pueden transportar los cristales de diamante -originados en las profundidades de la Tierra donde las altas presiones y temperaturas le permiten formarse- hacia la superficie. La minería y distribución de los diamantes naturales son un motivo de controversia frecuente, tales como las preocupaciones sobre la venta de los "diamantes de sangre" por los grupos paramilitares africanos. La cadena de suministro de diamantes está controlada por un número limitado de negocios poderosos, y está también altamente concentrada en un pequeño número de localizaciones alrededor del mundo (ver figura). Minería, fuentes y producción Solo una fracción muy pequeña de mineral de diamante consiste de diamantes reales. El mineral es chancado, proceso durante el cual se tiene el cuidado requerido para no destruir los diamantes más grandes, y luego son ordenados por densidad. Hoy en día, los diamantes son localizados en la fracción de densidad rica en diamantes, con la ayuda de fluorescencia de rayos X, después de lo cual los pasos finales de ordenamiento son hechos a mano. Antes de que el uso de los rayos X se hiciera común, la separación se hacía con cinturones de grasa; los diamantes tienen una tendencia más fuerte a pegarse a la grasa que los otros minerales en la muestra. Históricamente, los diamantes eran encontrados solo en depósitos aluviales en el sur de la India. India lideró la producción mundial de diamantes desde el tiempo de su descubrimiento, aproximadamente en el A.C. hasta mediados del , pero el potencial comercial de estas fuentes había sido agotado a finales del , y en aquel tiempo, la India fue eclipsada por Brasil, donde se hallaron los primeros diamantes no provenientes de la India en 1725. La producción de diamante de depósitos primarios (kimberlitas y lamproítas) empezó solo en la década de 1870, tras el descubrimiento de los campos de diamantes en la República Sudafricana. La producción ha aumentado con el tiempo, y ahora se ha minado un acumulado total de 4.5 mil millones de quilates desde la fecha. Interesante es el hecho de que el 20% de dicha cantidad se haya minado solo en los últimos 5 años, y durante los últimos diez años, 9 minas nuevas hayan empezado la producción, mientras 4 más están esperando ser abiertas pronto. La mayoría de estas minas están ubicadas en Canadá, Zimbabue, Angola, y una en Rusia. En los Estados Unidos, se ha encontrado diamantes en Arkansas, Colorado, y Montana. En el 2004, el descubrimiento de un diamante microscópico en los Estados Unidos condujo al muestreo en bruto de pipas de kimberlita en un lugar remoto de Montana. Hoy en día, la mayoría de depósitos de diamantes comercialmente viables están en Rusia (principalmente en Yakutia, por ejemplo la mina Mir y la mina Udachnaya), Botsuana, Australia (norte y oeste) y la República Democrática del Congo. En el 2005, Rusia produjo casi un quinto de la producción global de diamante, según los reportes de British Geological Survey. Australia posee las pipas diamantíferas más ricas, con producción que alcanza niveles picos de 42 TM por año en la década de 1990. También hay depósitos comerciales siendo minados activamente en los Territorios del Noroeste de Canadá, y en Brasil. Los prospectores de diamantes continúan buscando en el globo pipas de kimberlita y lamproíta que contengan diamantes. Fuentes controvertidas En algunos de los países de África central y occidental políticamente más inestables, los grupos revolucionarios han tomado control de las minas, usando los ingresos provenientes de las ventas de diamantes para financiar sus operaciones. Los diamantes vendidos a través de este proceso son conocidos como "diamantes de conflicto" o "diamantes de sangre". Grandes corporaciones de comercio de diamantes continúan financiando y alimentando estos conflictos al hacer negocios con los grupos armados. En respuesta a la preocupación pública de que sus compras de diamantes pudieran estar contribuyendo a la guerra y a violación de los derechos humanos en el África central y occidental, la Organización de las Naciones Unidas, la industria de diamantes, y las naciones comercializadoras de diamantes introdujeron el Proceso Kimberley en el 2002. El Proceso Kimberley apunta a asegurar que los diamantes de conflicto no se entremezclen con los diamantes controlados por tales grupos rebeldes. Esto se logra al requerir que los países productores de diamantes provean pruebas de que el dinero que hacen de la venta de diamantes no es usado para financiar actividades criminales o revolucionarias. Aunque el Proceso Kimberley ha tenido un éxito moderado en limitar el número de diamantes de conflicto que entran al mercado, algunos aún encuentran su camino ahí. Entre el 2% y el 3% de los diamantes comerciados hoy en día son, potencialmente, diamantes de conflicto. Dos grandes fallos aún limitan la efectividad del Proceso Kimberley: (1) la relativa facilidad de hacer contrabando de diamantes a través de las fronteras africanas, y (2) la naturaleza violenta de la minería de diamantes en las naciones que no tienen técnicamente un estado de guerra, y cuyos diamantes son considerados, en consecuencia, "limpios". El gobierno canadiense ha establecido un cuerpo conocido como el Canadian Diamond Code para ayudar a autentificar los diamantes canadienses. Este es un sistema muy riguroso de vigilancia de los diamantes, y ayuda a proteger la reputación de "libre de conflictos" de los diamantes canadienses. Distribución La Diamond Trading Company (DTC) es una subsidiaria de De Beers, y comercializa diamantes en bruto de las minas operadas por De Beers (dejó de comprar diamantes en el mercado abierto en 1999, y cesó de comprar diamantes rusos minados por la compañía rusa Alrosa a finales del 2008. Alrosa apeló exitosamente contra una corte europea y reiniciará sus ventas en mayo del 2009). Una vez adquiridos por Sightholders (que es un término registrado, que hace referencia a las compañías que tienen un contrato de suministro de tres años con DTC), los diamantes son cortados y pulidos en preparación a ser vendidos como gemas preciosas. El corte y pulido de los diamantes brutos es una labor especializada que está concentrada en un número limitado de localidades alrededor del mundo. Los centros tradicionales de corte de diamante son Amberes, Ámsterdam, Johannesburgo, Nueva York y Tel Aviv. Recientemente, se han establecido centros de corte de diamantes en China, India, Tailandia, Namibia y Botsuana. Los centros de corte con menores costos de mano de obra, notablemente Surat en Guyarat, India, manejan un gran número de diamantes de pocos quilates, mientras que cantidades más pequeñas de los diamantes más grandes o más valiosos tienden a ser manejados en Europa o Norteamérica. La reciente expansión de esta industria en la India, empleando mano de obra barata, ha permitido que diamantes más pequeños sean preparados como gemas en cantidades más grandes de lo que antes era económicamente factible. Los diamantes que han sido preparados como gemas preciosas son vendidas en centros de intercambio de diamantes conocidos como "bolsas". Hay 26 bolsas de diamantes registradas en el mundo. Las bolsas son el último paso fuertemente controlado en la cadena de suministro de diamantes, grande mayoristas e incluso minoristas pueden comprar cantidades relativamente pequeñas de diamantes en las bolsas, después de lo cual son preparadas para su venta final al consumidor. Los diamantes pueden ser vendidos ya engastados en joyería, o vendidos sin engastar. De acuerdo con el Rio Tinto Group, en el 2002 los diamantes producidos y liberados al mercado estaban valorizados en US$9 mil millones, como diamantes brutos, US$14 mil millones después de cortados y pulidos, US$28 mil millones en joyería de diamantes mayorista, y US$57 mil millones en ventas de escaparate. Sintéticos, simulantes y mejoras Sintéticos Los diamantes sintéticos son cristales de diamante que son manufacturados en un laboratorio, en contraste a los diamantes naturales que se forman naturalmente en el subsuelo. Los usos gemológicos e industriales del diamante han creado una gran demanda de piedras en bruto, esta demanda ha sido satisfecha en gran parte por los diamantes sintéticos por más de medio siglo; pero básicamente para uso industrial, no así para el mercado de joyería. Los procesos para la fabricación de este tipo de gema son diversos, tales como el CVD y HTHP. Actualmente se empiezan a comercializar para el sector de la bisutería y determinado tipo de joyerías, siendo un ejemplo de ello la conocida marca Swarovski. Por otro lado conviene recordar que actualmente son fácilmente detectables para un gemólogo dado que los diamantes naturales tienen birrefringencia anómala y los sintéticos no, igualmente ocurre con la fosforescencia pues prácticamente la totalidad de los sintéticos tipo HPHT tienen tal característica, mientras que los naturales casi en su totalidad carecen de la esta característica. Sin duda, y de cara al consumidor, es bueno que sepa que no es lo mismo un diamante sintético que uno natural, estando obligado el joyero a indicar en el certificado gemológico que es un "diamante sintético". La mayoría de diamantes sintéticos disponibles comercialmente son de color amarillo, y son producidos por procesos denominados de Alta Presión y Alta Temperatura (HTHP). El color amarillo es causado por impurezas de nitrógeno. Otros colores también pueden ser reproducidos, como el azul, verde o rosa, que resultan de la adición de boro o de la irradiación después de la síntesis. Otro método popular de crecimiento de diamante sintético es la deposición química de vapor (CVD). El crecimiento tiene lugar en presión baja (menor a la presión atmosférica). Involucra alimentar una mezcla de gases (típicamente 1:99 metano:hidrógeno) en una cámara y descomponerlos por la acción de radicales químicamente activos en un plasma iniciado por microondas, filamento caliente, descarga eléctrica, welding torch o láser. Este método es usado principalmente para recubrimientos, pero también puede producir cristales individuales de algunos milímetros de tamaño (ver imagen). En el presente, la producción anual de los diamantes sintéticos de calidad de gema es solo de unos cuantos miles de quilates, mientras que la producción total de diamantes naturales es alrededor de 120 millones de quilates. A pesar de este hecho, frecuentemente un consumidor encuentra diamantes sintéticos cuando busca un diamante de color de fantasía, porque casi todos los diamantes sintéticos son de color de fantasía, mientras solo el 0,01% de los diamantes naturales son de color de fantasía. La producción de diamantes sintéticos más grandes amenaza el modelo de negocio de la industria de diamantes. El efecto final de la rápida disponibilidad de diamantes de calidad de gema de bajo costo en el futuro es difícil de predecir. Imitaciones Un diamante de imitación está definido como un material distinto al diamante que es usado para simular la apariencia de un diamante. Las gemas que imitan al diamante suelen ser referidas como «diamantes», a secas, aunque propiamente son «diamantes de imitación»; a veces se llaman «simulantes del diamante» por calco semántico del inglés. El diamante de imitación más familiar a la mayoría de consumidores es la zirconia cúbica. La popular gema moissanita (carburo de silicio) suele ser tratada como un diamante de imitación, aunque es una gema por derecho propio. Aunque la moissanita tiene una apariencia similar al diamante, su principal desventaja como simulante del diamante es que el zircón cúbico es mucho más barato y casi igualmente convincente. Tanto el zircón cúbico como la moissanita son producidos sintéticamente. Mejoras Las mejoras del diamante son tratamientos específicos realizados sobre los diamantes naturales o sintéticos (usualmente sobre aquellos ya cortados y pulidos en una gema), que están diseñados para mejorar las características gemológicas de la piedra en uno o más formas. Estas incluyen la perforación láser para eliminar inclusiones, aplicación de sellantes para rellenar fisuras, tratamiento para mejorar el grado de color de un diamante blanco, y tratamientos para dar color de fantasía a un diamante blanco. Los recubrimientos se están usando más para darle a los simulantes de diamantes, como el zircón cúbico, una apariencia más "como el diamante". Una sustancia así es el carbono diamantino—un material carbonáceo amorfo que tiene algunas propiedades físicas similares a las de los diamantes. La publicidad sugiere que tal recubrimiento podría transferir algunas de estas propiedades similares al diamante a la piedra recubierta, con la consecuencia del mejoramiento del simulante de diamante. Sin embargo, las técnicas modernas, como la espectroscopia Raman permiten identificar fácilmente este tratamiento. Identificación Se ha indicado que un proceso de recocido han podido convertir diamantes sintéticos, típicamente marrones (CVD) en diamantes incoloros, y que estos diamantes, después de haber sido enviados para identificación en joyería de diamantes, no fueron identificados como diferentes a los diamantes naturales. Tales anuncios suelen ser hechos para nuevas piedras sintéticas, simulantes, y tratadas, así que es importante validar cómo fueron enviadas las piedras para su identificación. Los gemologistas adecuadamente entrenados y equipados pueden distinguir entre diamantes naturales y diamantes sintéticos. También pueden identificar la gran variedad de diamantes naturales tratados, siendo dos excepciones una pequeña minoría de diamantes tratados por HPHT del Tipo II (los diamantes de este tipo suelen ser brown, y a través del ya mencionado proceso HPHT lo que se hace es un proceso físico que permite que el diamante obtenga un color muy alto, desde colores D hasta H), y algunos diamantes verdes artificialmente irradiados; estos diamantes naturales se encuentran en su mayoría en África y son fáciles de detectar. No se ha encontrado cristales "perfectos" (a nivel de red cristalina atómica), así que tanto los diamantes naturales como sintéticos, siempre poseen imperfecciones características, que surgen de las circunstancias del crecimiento del cristal, que permite sean distinguidos unos de otros. Los laboratorios usan técnicas como las espectroscopia, microscopía y luminiscencia bajo luz ultravioleta corta para determinar el origen de un diamante. También usan máquinas especialmente diseñadas para ayudarles en el proceso de identificación. Dos de estas máquinas son la "DiamondSure" y la "DiamondView", ambas producidas por la DTC y comercializadas por el GIA. Pueden realizarse algunos métodos para identificar diamantes sintéticos, dependiendo del método de producción y del color del diamante. Los diamantes CVD suelen ser identificados por una fluorescencia roja. Los diamantes coloreados C-J pueden ser detectados a través del Diamond Spotter del Swiss Gemmological Institute. Las piedras en el rango de color D-Z pueden ser examinadas a través del espectrómetro UV/visible DiamondSure, herramienta desarrollada por De Beers. De modo similar, los diamantes naturales suelen tener imperfeciones y fallas menores, tales como inclusiones de material extraño, que no se ven en diamantes sintéticos. Simbología La tradición atribuyó al diamante en otros tiempos virtudes maravillosas contra los venenos, la peste, los terrores pánicos, los insomnios, los prestigios y los encantamientos. Calmaba la cólera y conservaba el amor entre los esposos lo que dio motivo a que se le llamara piedra de reconciliación. Se le atribuía también una propiedad talismánica cuando bajo su aspecto favorable, o cuando bajo el planeta Marte se grababa en él la figura de este dios o de Hércules matando a la hidra, de asegurar siempre la victoria al que lo llevaba cualquiera que fuera el número de sus enemigos. Se llegó al extremo de creer que los diamantes engendraban otros y Ruens nos dice que una princesa de Luxemburgo tenía diamantes hereditarios que le producían otros en determinadas épocas. En el lenguaje iconológico, el diamante es el símbolo de la constancia, de la fuerza, de la inocencia y de otras virtudes heroicas. Véase también Anexo:Minerales Esmeralda Grafito Rubí Zafiro Referencias Estructura y tipos de diamantes. Web: https://bijoya.com/blogs/entradas/estructura-y-tipos-de-diamantes Bibliografía Chaim Evevn-Zohar (2007). "From Mine to Mistress - Corporate Strategies and Government Policies in the International Diamond Industry" (Second edition of the book on the world diamond industry) Mining Journal Press. Pagel - Theisen, Verena. Diamond Grading ABC: the Manual Rubin & Son, Amberes, Bélgica, 2001. ISBN 3-9800434-6-0 Tolkowsky, Marcel (1919). Diamond Design: A Study of the Reflection and Refraction of Light in a Diamond. London: E. & F.N. Spon, Ltd. (Web edition as edited by Jasper Paulsen, Seattle, 2001) Wise, Richard W. "Secrets Of The Gem Trade, The Connoisseur's Guide To Precious Gemstones". (2003) Brunswick House Press. Website of book: Secrets of the Gem Trade Enlaces externos Properties of the diamond: Ioffe database Interactive structure of bulk diamond (Java applet) PBS Nature: Diamonds Smithsonian's Splendour of Diamonds exhibit Epstein, Edward Jay (1982). The diamond invention (Complete book, includes "Chapter 20: Have you ever tried to sell a diamond?" ) GIA "A Contribution to the Understanding of Blue Fluorescence on the Appearance of Diamonds". (2007) GIA Tyson, Peter (November 2000). "Diamonds in the Sky". Retrieved March 10, 2005. Joyería Minerales elementos Semiconductores del Grupo IV
480_0
Detección y corrección de errores
En matemáticas, informática y teoría de la información, la detección y corrección de errores es una importante práctica para el mantenimiento e integridad de los datos a través de diferentes procedimientos y dispositivos como medios de almacenamiento confiables. Se considera como precursor de este tipo de tecnologías el Acme Comodity and Phrase Code usado en los telegramas Introducción La comunicación entre varias computadoras produce continuamente un movimiento de datos, generalmente por canales no diseñados para este propósito (línea telefónica), y que introducen un ruido externo que produce errores en la transmisión. Por lo tanto, debemos asegurarnos que si dicho movimiento causa errores, éstos puedan ser detectados. El método para detectar y corregir errores es incluir en los bloques de datos transmitidos bits adicionales denominados redundancia. Se han desarrollado dos estrategias básicas para manejar los errores: Incluir suficiente información redundante en cada bloque de datos para que se puedan detectar y corregir los bits erróneos. Se utilizan códigos de corrección de errores. Incluir solo la información redundante necesaria en cada bloque de datos para detectar los errores. En este caso el número de bits de redundancia es menor. Se utilizan códigos de detección de errores. Si consideramos un bloque de datos formado por m bits de datos y r de redundancia, la longitud final del bloque será n, donde n = m + r. Historia En la antigüedad clásica, los copistas de la Biblia hebrea eran pagados por su trabajo según el número de líneas de verso. Como los libros en prosa de la Biblia casi nunca se escribieron en puntadas, los copistas, para estimar la cantidad de trabajo, tenían que contar las letras. Esto también ayudó a garantizar la precisión en la transmisión del texto con la producción de copias posteriores. Entre los siglos VII y X d. C., un grupo de escribas judíos formalizó y amplió esto para crear la Masora Numérica para garantizar una reproducción precisa del texto sagrado. Incluía conteos del número de palabras en una línea, sección, libro y grupos de libros, anotando el punto medio de un libro, estadísticas de uso de palabras y comentarios. Los estándares se volvieron tales que una desviación incluso en una sola letra en un rollo de la Torá se consideraba inaceptable. La efectividad de su método de corrección de errores fue verificada por la precisión de la copia a través de los siglos demostrada por el descubrimiento de los Pergaminos del Mar Muerto en 1947–1956, que datan de . El desarrollo moderno de los códigos de corrección de errores se atribuye a Richard Hamming en 1947. Una descripción del código de Hamming apareció en A Mathematical Theory of Communication de Claude Shannon y fue generalizado rápidamente por J. J. Golay. Principios Todos los esquemas de detección y corrección de errores agregan algo de redundancia (es decir, algunos datos adicionales) a un mensaje, que los receptores pueden usar para verificar la consistencia del mensaje entregado y para recuperar datos que han sido enviados que pueden perderse. Los esquemas de detección y corrección de errores pueden ser sistemáticos o no sistemáticos. En un esquema sistemático, el transmisor envía los datos originales (sin errores) y adjunta un número fijo de "bits de verificación" (o "datos de paridad"), que se derivan de los bits de datos mediante algún algoritmo de codificación. Si se requiere detección de errores, un receptor puede simplemente aplicar el mismo algoritmo a los bits de datos recibidos y comparar su salida con los bits de verificación recibidos; si los valores no coinciden, se ha producido un error en algún momento durante la transmisión. Si se requiere corrección de errores, un receptor puede aplicar el algoritmo de decodificación a los bits de datos recibidos ya los bits de verificación recibidos para recuperar los datos originales sin errores. En un sistema que utiliza un código no sistemático, el mensaje original se transforma en un mensaje codificado que lleva la misma información y que tiene al menos tantos bits como el mensaje original. Un buen rendimiento de control de errores requiere que el esquema se seleccione en función de las características del canal de comunicación. Los modelos de canal comunes incluyen modelos sin memoria donde los errores ocurren aleatoriamente y con cierta probabilidad, y modelos dinámicos donde los errores ocurren principalmente en ráfagas. En consecuencia, los códigos de detección y corrección de errores pueden distinguirse generalmente entre "detección/corrección de errores aleatorios" y "detección/corrección de errores en ráfagas". Algunos códigos también pueden ser adecuados para una combinación de errores aleatorios y errores de ráfaga. Si las características del canal no pueden determinarse o son muy variables, se puede combinar un esquema de detección de errores con un sistema para retransmisiones de datos erróneos. Esto se conoce como solicitud de repetición automática (ARQ) y se usa principalmente en Internet. Un enfoque alternativo para el control de errores es solicitud de repetición automática híbrida (HARQ), que es una combinación de ARQ y codificación de corrección de errores. Tipo de códigos detectores Paridad simple (paridad horizontal) Consiste en añadir un bit de más a la cadena que queremos enviar, y que nos indicará si el número de unos (bits puestos a 1) es par o es impar. Si es par incluiremos este bit con el valor = 0, y si no es así, lo incluiremos con valor = 1. Ejemplo de generación de un bit de paridad simple: Queremos enviar la cadena “1110100”: 1.º Contamos la cantidad de unos que hay: 4 unos 2.º El número de unos es par por tanto añadimos un bit con valor = 0 3.º La cadena enviada es 11101000 El receptor ahora, repite la operación de contar la cantidad de “unos” que hay (menos el último bit) y si coincide, es que no ha habido error. Problemas de este método: Hay una alta probabilidad de que se cuelen casos en los que ha habido error, y que el error no sea detectado, como ocurre si se cambian dos números en la transmisión en vez de uno. Un ejemplo de polinomio generador usado normalmente en las redes WAN es: Los cálculos que realiza el equipo transmisor para calcular su CRC (Ciclic redundancy Check) son: Añade tantos ceros por la derecha al mensaje original como el grado del polinomio generador Divide el mensaje con los ceros incluidos entre el polinomio generador El resto que se obtiene de la división se suma al mensaje con los ceros incluidos Se envía el resultado obtenido Estas operaciones generalmente son incorporadas en el hardware para que pueda ser calculado con mayor rapidez, pero en la teoría se utilizan los polinomios para facilitar los cálculos. Ejemplo de obtención del CRC: Datos: Mensaje codificado en binario: 1101001 Polinomio generador: Operaciones: 1.º Obtener el polinomio equivalente al mensaje: 2.º Multiplicar el mensaje por (añadir 4 ceros por la derecha): 3.º Dividir en binario el mensaje por el polinomio generador y sacar el resto: 4.º Concatenar el mensaje con el resto (en módulo 2 también): 5.º Transmitir el mensaje El equipo receptor debe comprobar el código CRC para detectar si se han producido o no errores. Ejemplo de los cálculos del receptor: 1.º Mediante el protocolo correspondiente acuerdan el polinomio generador 2.º Divide el código recibido entre el polinomio generador 3.º Comprueba el resto de dicha operación 3.1 Si el resto es cero, no se han producido errores 3.2 Procesar el mensaje 3.1 Si el resto es distinto de cero, significa que se han producido errores 3.2 Reenviar el mensaje 3.2 Intentar corregir los errores mediante los códigos correctores En resumen, este método requiere de un polinomio generador que, elegido correctamente, puede llegar a detectar gran cantidad de errores: Errores simples: todos Errores dobles: todos Errores en las posiciones impares de los bits: todos Errores en ráfagas con una longitud menor que el grado del polinomio generador: todos Otras ráfagas: un porcentaje elevado y cercano al 100% Suma de comprobación Es un método sencillo pero eficiente solo con cadenas de palabras de una longitud pequeña, es por esto que se suele utilizar en cabeceras de tramas importantes u otras cadenas importantes y en combinación con otros métodos. Funcionalidad: consiste en agrupar el mensaje a transmitir en cadenas de una longitud determinada L no muy grande, de por ejemplo 16 bits. Considerando a cada cadena como un número entero numerado según el sistema de numeración . A continuación se suma el valor de todas las palabras en las que se divide el mensaje, y se añade el resultado al mensaje a transmitir, pero cambiado de signo. Con esto, el receptor lo único que tiene que hacer es sumar todas las cadenas, y si el resultado es 0 no hay errores. Ejemplo: Mensaje 101001110101 1.º Acordar la longitud de cada cadena: 3 2.º Acordar el sistema de numeración: 3.º Dividir el mensaje: 101 001 110 101 4.º Asociar cada cadena con un entero: 5 1 6 5 5.º Sumar todos los valores y añadir el número cambiado de signo: -17 6.º Enviar 5 1 6 5 -17 codificado en binario El receptor: 1.º Suma todos los valores; si la suma es 0, procesa el mensaje; si no, se ha producido un error. Este método al ser más sencillo es óptimo para ser implementado en software ya que se puede alcanzar velocidades de cálculo similares a la implementación en hardware Distancia de Hamming basada en comprobación Si queremos detectar d bit erróneos en una palabra de n bits, podemos añadir a cada palabra de n bits d+1 bits predeterminados al final, de forma que quede una palabra de n+d+1 bits con una distancia mínima de Hamming de d+1. De esta manera, si uno recibe una palabra de n+d+1 bits que no encaja con ninguna palabra del código (con una distancia de Hamming x <= d+1 la palabra no pertenece al código) detecta correctamente si es una palabra errónea. Aún más, d o menos errores nunca se convertirán en una palabra válida debido a que la distancia de Hamming entre cada palabra válida es de al menos d+1, y tales errores conducen solamente a las palabras inválidas que se detectan correctamente. Dado un conjunto de m*n bits, podemos detectar x <= d bits errores correctamente usando el mismo método en todas las palabras de n bits. De hecho, podemos detectar un máximo de m*d errores si todas las palabras de n bits son transmitidas con un máximo de d errores. Ejemplo Palabras a enviar: 000001 000001 000010 Codificadas con distancia mínima de Hamming = 2 000001 0000 000001 0011 000010 1100 Si las palabras recibidas tienen una distancia de Hamming < 2, son palabras incorrectas. Aplicaciones Las aplicaciones que requieren baja latencia (como conversaciones telefónicas) no pueden usar la solicitud de repetición automática (ARQ); deben usar corrección de errores hacia adelante (FEC). Cuando un sistema ARQ descubre un error y lo retransmite, los datos reenviados llegarán demasiado tarde para poder utilizarse. Las aplicaciones en las que el transmisor olvida inmediatamente la información tan pronto como se envía (como la mayoría de las cámaras de televisión) no pueden usar ARQ; deben usar FEC porque cuando ocurre un error, los datos originales ya no están disponibles. Las aplicaciones que usan ARQ deben tener un canal de retorno; las aplicaciones que no tienen canal de retorno no pueden usar ARQ. Las aplicaciones que requieren tasas de error extremadamente bajas (como las transferencias de dinero digital) deben usar ARQ debido a la posibilidad de errores incorregibles con FEC. La ingeniería de confiabilidad e inspección también hace uso de la teoría de los códigos de corrección de errores. Internet En una pila típica TCP/IP, el control de errores se realiza en varios niveles: Cada trama Ethernet utiliza la detección de errores CRC-32. Las tramas con errores detectados son descartadas por el hardware del receptor. El encabezado IPv4 contiene una suma de control que protege el contenido del encabezado. Los pquetes con sumas de verificación incorrectas se descartan dentro de la red o en el receptor. Se omitió la suma de verificación del encabezado IPv6 para minimizar los costos de procesamiento en el enrutamiento de red y porque se supone que la tecnología actual de capa de enlace proporciona suficiente detección de errores (véase también RFC 3819). UDP tiene una suma de verificación opcional que cubre la carga útil y la información de direccionamiento en los encabezados UDP e IP. Los paquetes con sumas de verificación incorrectas son descartados por la pila de red. La suma de comprobación es opcional en IPv4 y obligatoria en IPv6. Cuando se omite, se supone que la capa de enlace de datos proporciona el nivel deseado de protección contra errores. TCP proporciona una suma de verificación para proteger la carga útil y la información de direccionamiento en los encabezados TCP e IP. Los paquetes con sumas de verificación incorrectas son descartados por la pila de la red y finalmente se retransmiten usando ARQ, ya sea explícitamente (como a través de apretón de manos de tres vías) o implícitamente debido a un tiempo de espera. Telecomunicaciones en el espacio profundo El desarrollo de los códigos de corrección de errores estuvo estrechamente ligado a la historia de las misiones al espacio profundo, debido a la extrema dilución de la potencia de la señal en distancias interplanetarias y a la limitada disponibilidad de energía a bordo de las sondas espaciales. Mientras que las primeras misiones enviaban sus datos sin codificar, a partir de 1968 se implementó la corrección digital de errores en forma de códigos convolucionales (descodificados de forma subóptima) y códigos Reed-Muller. El código Reed-Muller se adaptaba bien al ruido al que estaba sometida la nave espacial (aproximadamente coincidente con una curva de campana), y se implementó para la nave espacial Mariner y se utilizó en las misiones entre 1969 y 1977. Las misiones Voyager 1 y Voyager 2, que comenzaron en 1977, se diseñaron para proporcionar imágenes en color e información científica de Júpiter y Saturno,. lo que aumentó los requisitos de codificación, por lo que las naves se apoyaron en códigos convolucionales (descodificados óptimamente por Viterbi) que podían concatenarse con un código Golay exterior (24,12,8). La nave Voyager 2 soportaba además una implementación de un código Reed-Solomon. El código Reed-Solomon-Viterbi (RSV) concatenado permitía una corrección de errores muy potente y posibilitó el viaje prolongado de la nave espacial a Urano y Neptuno. Tras la actualización de los sistemas ECC en 1989, ambas naves utilizaron el código RSV V2. El Comité Consultivo de Sistemas de Datos Espaciales recomienda actualmente el uso de códigos de corrección de errores con un rendimiento similar al código RSV de la Voyager 2 como mínimo. Los códigos concatenados están cayendo cada vez más en desuso en las misiones espaciales y son sustituidos por códigos más potentes, como los códigos Turbo o los códigos LDPC. Los diferentes tipos de misiones espaciales y orbitales que se llevan a cabo sugieren que intentar encontrar un sistema de corrección de errores que sirva para todo será un problema constante. En las misiones cercanas a la Tierra, la naturaleza del ruido en el canal de comunicación es diferente de la que experimenta una nave espacial en una misión interplanetaria. Además, a medida que aumenta la distancia entre la nave y la Tierra, el problema de la corrección del ruido se hace más difícil. Radiodifusión por satélite La demanda de ancho de banda de transpondedor por satélite sigue creciendo, impulsada por el deseo de emitir televisión (incluidos nuevos canales y televisión de alta definición) y datos IP. La disponibilidad de transpondedores y las restricciones de ancho de banda han limitado este crecimiento. La capacidad del transpondedor viene determinada por el esquema de modulación seleccionado y la proporción de capacidad consumida por la FEC (Corrección de errores hacia adelante). Almacenamiento de datos Los códigos de detección y corrección de errores se utilizan a menudo para mejorar la fiabilidad de los soportes de almacenamiento de datos. En 1951, la primera cinta magnética de almacenamiento de datos contaba con una pista de paridad capaz de detectar errores de un solo bit. El código rectangular óptimo utilizado en las cintas de grabación codificadas en grupo no sólo detecta, sino que también corrige los errores de un solo bit. Algunos formatos de archivo, sobre todo los de archivo, incluyen una suma de comprobación (casi siempre CRC32) para detectar la corrupción y el truncamiento y pueden emplear archivos de redundancia o paridad para recuperar porciones de datos dañados. Los códigos Reed-Solomon se utilizan en discos compactos para corregir errores causados por arañazos. Los discos duros modernos utilizan códigos Reed-Solomon para detectar y corregir errores menores en la lectura de sectores, y para recuperar datos corruptos de sectores que fallan y almacenarlos en los sectores de reserva. Los sistemas RAID utilizan diversas técnicas de corrección de errores para recuperar datos cuando un disco duro falla por completo. Los sistemas de archivos como ZFS o Btrfs, así como algunas implementaciones RAID, soportan la limpieza de datos y el resilvering, lo que permite detectar bloques defectuosos y (con suerte) recuperarlos antes de que se utilicen. Los datos recuperados pueden reescribirse exactamente en la misma ubicación física, en bloques de repuesto en la misma pieza de hardware, o los datos pueden reescribirse en hardware de repuesto. Memoria con corrección de errores Las memorias dinámicas de acceso aleatorio (DRAM) pueden ofrecer una mayor protección frente a los errores blandos mediante códigos de corrección de errores. Este tipo de memoria con corrección de errores, conocida como memoria protegida ECC o EDAC, es especialmente deseable para aplicaciones de misión crítica, como la informática científica, financiera, médica, etc., así como para aplicaciones extraterrestres debido al aumento de la radiación en el espacio. Los controladores de memoria con corrección de errores utilizan tradicionalmente códigos Hamming, aunque algunos emplean redundancia modular triple. El intercalado permite distribuir el efecto de un solo rayo cósmico que pueda alterar varios bits físicamente vecinos entre varias palabras, asociando los bits vecinos a palabras diferentes. Siempre que una perturbación de evento único (SEU) no supere el umbral de error (por ejemplo, un error único) en una palabra concreta entre accesos, puede corregirse (por ejemplo, mediante un código de corrección de errores de un solo bit), y puede mantenerse la ilusión de un sistema de memoria sin errores. Además de las funciones de hardware necesarias para el funcionamiento de la memoria ECC, los sistemas operativos suelen incluir funciones de notificación relacionadas que se utilizan para avisar cuando los errores de software se recuperan de forma transparente. Un ejemplo es el subsistema EDAC del kernel de Linux (anteriormente conocido como Bluesmoke), que recopila los datos de los componentes habilitados para la comprobación de errores dentro de un sistema informático; además de recopilar y notificar los eventos relacionados con la memoria ECC, también admite otros errores de suma de comprobación, incluidos los detectados en el bus PCI. Algunos sistemas[especificar] también admiten la depuración de memoria para detectar y corregir errores antes de que sean irrecuperables. Lista de los métodos de corrección y detección de errores Dígito verificador FEC (Forward Error Correction) Código Binario de Golay Código Hamming Bit de paridad Reed-Solomon Véase también Corrección de errores cuántica Recuperación de datos Corrupción de datos Automatic Repeat Request Referencias Enlaces externos Otros códigos utilizados Detección y corrección de errores Protocolos
482_0
Dune
Dune es una novela de ciencia ficción escrita por Frank Herbert en 1965. Su éxito fue rotundo; en 1966 ganó el Premio Hugo y en 1965 la primera edición del Premio Nébula a la mejor novela de ciencia ficción. Publicada en español por la editorial Acervo en 1975, abrió una de las sagas más importantes de la literatura fantástica y de ciencia ficción. En 2007 registró ventas de más 12 millones de ejemplares, convirtiéndola en la novela de ciencia ficción más vendida a la fecha. Posteriormente el autor continuaría la saga con El mesías de Dune (1969) y la concluyó con Hijos de Dune (1976), que cerraba la trilogía prevista. El éxito de la trilogía lo llevó sin embargo a escribir posteriormente un cuarto libro, Dios emperador de Dune (1981), con el que esperaba cerrar la (en ese momento) tetralogía. Años después retomaría la saga con los quinto y sexto volúmenes Herejes de Dune (1984) y Casa Capitular Dune (1985), dejando un final completamente abierto a una nueva entrega. El éxito de la novela provocó mucho interés en su traslado a la gran pantalla, proyecto que tras muchas vicisitudes se plasmaría en la película Dune (1984), dirigida por David Lynch. Años después, en 2000, también se realizaría una miniserie de televisión inspirada en la primera novela, titulada Dune, a la que seguiría otra miniserie inspirada en las dos novelas siguientes, titulada Hijos de Dune. En 2021, Denis Villeneuve presentó la película Dune: parte 1 en el Festival Internacional de Cine de Venecia. Tras la muerte de Frank Herbert, se han añadido a la saga dos trilogías que narran los antecedentes que condujeron a los hechos de la saga principal, Preludio a Dune (1999-2001) y Leyendas de Dune (2002-2004), escritas por el hijo del autor, Brian Herbert, en asociación con el escritor de ciencia ficción Kevin J. Anderson, así como dos novelas que concluyen la saga original, Cazadores de Dune (2006) y Gusanos de arena de Dune (2007). Argumento Contexto Entre 1963 y 1964 Frank Herbert escribió una novela, Mundo de Dune, primera parte de una planeada tetralogía, que publicó en capítulos en la revista de ciencia ficción Analog. Aunque aún no era un autor muy conocido, la novela tuvo una gran acogida entre los lectores y Herbert escribió su continuación, El Profeta de Dune, publicándolo en cinco entregas en la misma revista. Estos dos primeros relatos se reunieron en un solo volumen al publicarse el libro poco después: Dune redujo la tetralogía inicial a una trilogía. La dedicatoria de Herbert era: La historia comienza a más de 10000 años en el futuro, en nuestra galaxia, en un gran imperio galáctico de estructura feudal. El Imperio se divide en cuasi-feudos o señoríos planetarios que son controlados por familias nobles, conocidas como Las Grandes Casas, que se agrupan en un gran consejo, llamado Landsraad, y rinden tributo al Emperador Padishah Shaddam IV, de la Casa Corrino. Otra de las instituciones es la Combine Honnete Ober Advancer Mercantiles, o CHOAM, una corporación universal para el desarrollo comercial controlada por el Emperador y las Grandes Casas, con la Cofradía Espacial y la Hermandad Bene Gesserit como socios sin derecho a voto. La clave para el comercio y la estabilidad del imperio se halla en el viaje espacial, monopolio de la Cofradía Espacial, cuyos «Navegantes» son humanos mutados que usan la especia o melange para ejercitar sus poderes prescientes. De ese modo pueden trazar un rumbo seguro, para así poder plegar el espacio y viajar instantáneamente a cualquier parte de la Galaxia. También la Hermandad Bene Gesserit, poderosa orden femenina cuya prioridad es la preservación y el progreso de la raza humana, utiliza la especia. Múltiples secretos ocultan las Bene Gesserit, también llamadas brujas por sus poderes mentales y físicos, desarrollados a través del condicionamiento muscular y nervioso conocido como entrenamiento Prana-bindu. Todo este entrenamiento físico y mental permite a las acólitas Bene Gesserit superar la agonía de la especia, prueba en la que ingieren una cantidad de un veneno iluminante que deben transformar internamente para volverlo inocuo. La supervivencia a esta ordalía despierta en la acólita las Otras Memorias, las personalidades y recuerdos de todas sus antepasadas femeninas. No obstante son advertidas contra el lugar de su consciencia donde se encuentran las memorias de sus ancestros masculinos, conocido como «el lugar donde no podemos mirar». De ahí se deriva el milenario programa genético secreto de la Bene Gesserit: la búsqueda de un macho equivalente a una Bene Gesserit, que ellas denominan Kwisatz Haderach, «el camino más corto». Este individuo no solo tendría acceso a la línea masculina de Otras Memorias, sino que esperaban que poseyera otros «poderes mentales que pudieran hacer de puente en el espacio y el tiempo.» Con el Kwisatz Haderach bajo su control, la Hermandad espera poder intervenir más efectivamente en el curso de la humanidad. La melange, clave de todos los planes para el control del Imperio, se encuentra solo en un planeta desértico, un ecosistema hostil para casi toda forma de vida, Arrakis, también conocido como Dune. Las escasas y esparcidas tribus Fremen que lo habitan se dedican a la recolección de especia, que es producida como parte del ciclo vital de los gusanos de arena, gigantescos animales que controlan el desierto. La cultura de los Fremen gira alrededor del valor y la conservación del agua en su árido planeta. La Missionaria Protectiva de la Bene Gesserit, dedicada a la ingeniería religiosa, ha implantado entre los Fremen, con objeto de preparar el terreno a su futuro Kwisatz Haderach, la creencia de que un salvador vendrá, un Mesías, que transformará su mundo en un lugar más hospitalario para los seres humanos. Trama En sí, la historia se desarrolla alrededor del joven Paul Atreides, heredero del ducado de la Casa Atreides. Su padre, el duque Leto Atreides, recibe del Emperador Padishah Shaddam IV la orden de trasladarse, con todo su ducado, a Arrakis, la única fuente en el Universo Conocido de la especia melange. Paul debe enfrentarse a la traición del Emperador, temeroso de la ascendencia de la Casa Atreides en el Landsraad, y de la Casa Harkonnen, enemigos de los Atreides desde la Batalla de Corrin. En la novela, Paul Atreides ha vivido su infancia en Caladan junto a sus preciados maestros: Duncan Idaho, Gurney Halleck, Thufir Hawat y el Doctor Wellington Yueh hasta los 15 años, momento en que el Emperador ordena a los Atreides el traslado a fiscalizar el comercio de la Especia en su nuevo feudo en Arrakis. Pero esta orden no es más que una trampa urdida por el barón Vladimir Harkonnen y el Emperador Paddishah Shaddam IV para sacar a los Atreides del inexpugnable planeta Caladan y eliminarlos posteriormente de las casas del Landsraad. Antes de partir, Paul recibe la visita de la Reverenda Madre Gaius Helen Mohiam, mentora de su madre Dama Jessica Atreides en la Hermandad Bene Gesserit. Jessica era miembro de la Orden Bene Gesserit, y fue designada por la misma a convertirse en concubina del duque Leto Atreides como parte del programa genético secreto de dicha orden. Debido al amor sincero que sentía por el duque Leto, desobedeció la orden de concebir una niña para darle un heredero, y concibió a Paul: al cometer este crimen Jessica albergaba la esperanza, quizá no muy improbable al fin y al cabo, de concebir al Kwisatz Haderach, el macho Bene Gesserit que tanto esperaba su Hermandad, aquel que podría establecer puentes entre el espacio y el tiempo. Los Atreides sospechan de la maniobra del emperador, y son capaces de neutralizar las trampas y sabotajes Harkonnen mientras intentan establecer lazos de confianza con la población local Fremen. Finalmente, sucumben bajo el ataque devastador de los Harkonnen, con tropas imperiales Sardaukar disfrazados de Harkonnen y ayudados por un traidor, el Doctor Suk Wellington Yueh. Capturado el duque Leto, fallece en un intento fallido de asesinar al barón Harkonnen. Solo Paul y Jessica pueden escapar a la masacre, internándose en el desierto. Allí son cobijados por los Fremen, pueblo de feroces guerreros que cabalgan los gusanos de arena. Debido a las manipulaciones religiosas de la Missionaria Protectiva de la Bene Gesserit, los fremen ven a Paul como el Mesías que guiará a su pueblo en la transformación de Arrakis en un ecosistema menos hostil. Aceptados entre los fremen Paul adopta el nombre fremen de Muad'Dib y conoce a Chani, encargada de protegerle y enseñarle las costumbres fremen. El amor surgirá entre la pareja, y Chani será su compañera de ahí en adelante. Al poco de ser aceptados entre los Fremen, Jessica es conminada a convertirse en la Reverenda Madre de los Fremen. Para ello debe pasar la Agonía de la especia, trance ritual que comprende la ingestión de un veneno iluminante, el Agua de Vida, y su transformación interna en una droga inocua. Jessica está embarazada de una niña, Alia, y durante la Agonía ambas se transforman en Reverendas Madres. Con el tiempo, Paul se convierte por derecho propio en líder de los Fremen, guiándoles en una revolución contra los Harkonnen y el Emperador, saboteando la producción de especia, mientras sus poderes prescientes aumentan día a día. Pero no es suficiente: Paul debe descubrir si es verdaderamente el Kwisatz Haderach, y decide pasar por la Agonía de la especia para confirmarlo. Esto lo lleva a tomar el Agua de Vida, cayendo en un trance comatoso durante tres semanas. Al despertar, ya como el Kwisatz Haderach, Muad'Dib asume su papel mesiánico como Mahdi de los Fremen, y los conduce a enfrentarse en una última y épica batalla contra el Emperador y el Barón. Tras la triunfante revuelta, y muerto el Barón Harkonnen a manos de su hermana Alia, Paul Muad'Dib fuerza al Emperador a consentir su matrimonio con su hija mayor Irulan Corrino y a retirarse a Salusa Secundus, ascendiendo así al trono imperial, desde donde desatará una Yihad por el Universo. Personajes Los personajes principales se listan a continuación por grupos o alianzas. Estas alianzas pueden cambiar a lo largo de la serie de novelas, o revelarse de modo distinto. Casa Atreides La Casa Atreides es una de las Grandes Casas del Imperio de Universo Conocido. Sus miembros tienen un papel principal a lo largo de toda la saga. Se sugiere en la novela que las raíces de la línea Atreides están en la mitológica casa griega de los Atreus. En la Ilíada de Homero, los hermanos Agamenón y Menelao son llamados los Atreides, o hijos de Atreus. El primer Atreides en la cronología de la saga es Vorian Atreides, hijo humano del cymek Agamenón que se une a la Liga de los Nobles en la trilogía Leyendas de Dune de Brian Herbert y Kevin J. Anderson, ambientada en los tiempos de la Yihad Butleriana. La Casa Atreides tiene su feudo en el planeta Caladan, y se destaca por su nobleza de espíritu, su proverbial justicia y virtud hacia su pueblo. Estas virtudes despiertan la lealtad más incondicional en sus siervos. La principal industria de Caladan es el cultivo de Arroz Pundi. También posee otras industrias menores derivadas de la agricultura y la pesca, así como la construcción de yates de recreo y otras embarcaciones. Inexpugnables en Caladan, sus tropas están altamente entrenadas: la familia ha desarrollado incluso un lenguaje de batalla propio. Los colores de la Casa Atreides son el verde y el negro, y su símbolo es un halcón rojo. Duque Leto Atreides, jefe de la Casa Atreides Dama Jessica, Bene Gesserit y concubina del Duque, madre de Paul y Alia. Paul Atreides, el único hijo vivo y heredero de la Casa Atreides. Alia Atreides, hermana pequeña de Paul, nacida tras la muerte de su padre. Leto Atreides, el hijo de Paul Muad'Dib y Chani, muere en un asalto Harkonnen. Thufir Hawat, mentat y Maestro de Asesinos de la Casa Atreides. Gurney Halleck, guerrero trovador completamente leal a la Casa Atreides. Duncan Idaho, Maestro Espadachín de la Casa Atreides, graduado en la Escuela Ginaz. Dr. Wellington Yueh, Doctor Suk de la Casa Atreides. Casa Harkonnen La Casa Harkonnen aparece con especial relevancia en la novela, y tiene también una presencia importante en las trilogías Preludio a Dune y Leyendas de Dune, de Brian Herbert y Kevin J. Anderson. Härkönen es un nombre familiar finlandés: härkä significa "toro" y rauta significa "hierro". Se desconoce si estas palabras están relacionadas intencionadamente o no con los apellidos Harkonnen y Rautha de algunos miembros de la Casa. El símbolo de la Casa Harkonnen en la novela es un grifo azul. El origen de la casa se encuentra en Xavier Harkonnen, militar amigo de Vorian Atreides durante la Yihad Butleriana, y Abulurd Harkonnen, su nieto y primer Barón de la Casa Harkonnen, cuya traición a Vorian Atreides dio origen a la ancestral enemistad que enfrenta a las dos Grandes Casas desde la Batalla de Corrin. El planeta feudo de los Harkonnen es Giedi Prime, anteriormente rico en recursos naturales, que bajo el dominio opresivo de los Harkonnen es sobreexplotado industrialmente convirtiéndose en una devastación contaminada. Aparte del control de la producción de especia melange en Arrakis, la Casa Harkonnen posee otras industrias importantes como la extracción de obsidiana azul, la cerveza negra Harkonnen o las plantaciones de tubérculos Krall. Siridar Barón Vladimir Harkonnen, jefe de la Casa Harkonnen. Piter de Vries, Mentat pervertido y Maestro de Asesinos de la Casa Harkonnen. Feyd-Rautha Harkonnen, sobrino y heredero del Barón. Glossu "la Bestia" Rabban, también llamado Rabban Harkonnen, sobrino mayor del Barón. Iakin Nefud, Capitán de la Guardia. Casa Corrino La Casa Imperial Corrino es la regente del Imperio. Fue fundada tras la Batalla de Corrin, fin de la Yihad Butleriana, cuando Faykan Butler decide cambiar su apellido en honor a la victoria de los humanos sobre las Máquinas pensantes. Poco después, asumiendo simultáneamente los cargos de Virrey y Gran Patriarca, se declara a sí mismo Emperador de la Humanidad. El planeta ancestral de la Casa Imperial Corrino es Salusa Secundus, sede del poder imperial desde la Yihad Butleriana. Debido a una agresión atómica por una Casa Renegada, la Casa Corrino y el Trono del León de Oro se trasladaron a Kaitain. Como resultado del ataque, Salusa Secundus quedó devastado a nivel ambiental. Designado como Planeta Prisión Imperial, sus duras condiciones solo permitían la supervivencia del más fuerte, lo que permitió a la Casa Corrino desarrollar la más temida de las unidades militares del universo, los Sardaukar, guerreros fanáticos cuya sola mención acallaba a cualquier posible disidente en el Imperio. La ambición, las traiciones y las conjuras son habituales en la familia Corrino. El Padishah Emperador Shaddam IV asesinó a su hermano Fafnir para asegurar su ascenso al trono, y posteriormente envenenó a su padre Elrood IX para acelerarlo. Shaddam IV, Padishah Emperador del Universo Conocido. Princesa Irulan Corrino, hija mayor y heredera del Emperador, educada por la Bene Gesserit e historiadora. Conde Hasimir Fenring, un eunuco genético, consejero y mejor amigo del emperador. Casado con Dama Margot Fenring. Bene Gesserit La Bene Gesserit es descrita como una orden femenina cuyos miembros siguen un condicionamiento físico y mental extraordinario para adquirir "poderes" y habilidades que pueden fácilmente parecer mágicos a los extraños. Debido a su secretismo y habilidades incomprensibles son llamadas a menudo "brujas" por sus enemigos. Las Reverendas Madres visten una malla negra y una túnica larga y suelta por encima llamada Aba. Adiestradas en el planeta escuela Wallach IX, las habilidades y funciones de las Bene Gesserit son muy variadas y abarcan todos los aspectos de la estructura del imperio: concubinas para las Grandes Casas, Decidoras de Verdad, establecedoras de religiones, el brazo de la Bene Gesserit llega a todos lados. Su completo adiestramiento físico y marcial, su agilidad, velocidad y precisión las convierten en adversarios temibles en el cuerpo a cuerpo. Reverenda Madre Gaius Helen Mohiam, Decidora de Verdad del emperador, antigua mentora de Dama Jessica. Dama Margot Fenring, Bene Gesserit casada con el Conde Hasimir Fenring. Fremen Los Fremen son las tribus libres de Arrakis, también conocido como Dune, el planeta desierto que es la única fuente de especia melange en el universo conocido. Los fremen llegaron a Arrakis en tiempos de la Yihad Butleriana como Nómadas Zensunni, una secta religiosa caída en desgracia. Con el paso de los milenios, las increíblemente duras condiciones de Arrakis los conducen a convertirse en un pueblo nacido para la supervivencia, los Free Men (hombres libres) de Dune, nombre que acabó acortándose en Fremen. Stilgar, Naib (siervo de Sietch) Fremen, líder del Sietch Tabr; un gran guerrero y un político hábil. Chani, guerrera fremen concubina de Paul Atreides. Es hija de Liet-Kynes. Liet-Kynes, hijo fremen de Pardot Kynes, Liet es una figura reverenciada entre los fremen. Pardot Kynes, planetólogo Imperial destinado a Arrakis, considerado un Umma (hombre santo o profeta) entre los fremen. Se casó por el rito fremen con Frieth, hermana de Stilgar. Sayyadina Ramallo, líder espiritual de los fremen, antigua Bene Gesserit. Harah, viuda de Jamis, guerrero fremen que muere en una lucha ritual a muerte con Paul. Este se hace cargo de ella como sirvienta y posteriormente se casa con Stilgar. Otheym, guerrero Fedaykin. Esmar Tuek, líder de los contrabandistas que traba amistad con Gurney Halleck. Temas Las premisas iniciales de la novela no se fuerzan en ningún momento, sino que se van extendiendo paulatinamente para que el lector se vaya habituando a ellas. El autor dejó deliberadamente de lado las especulaciones supertecnológicas y los avances técnicos, prestando sin embargo una gran atención a ideas sobre ecología, religión, cultura y humanidad. Esto hizo que en su tiempo se considerase esta saga como un cambio provocativo y atractivo con respecto a la ciencia ficción que se había escrito anteriormente. Mesianismo La novela se ambienta en un imperio galáctico en decadencia, donde la corrupción, los excesos y la división conducen a una caída que recuerda a la Historia de la decadencia y caída del Imperio Romano de Edward Gibbon. La manipulación religiosa a lo largo de todo el imperio por parte de la Missionaria Protectiva de la Bene Gesserit prepara el camino para un mesías que lidere ese imperio en un proceso de regeneración. La aparición no planeada de ese mesías arrastra al imperio en una Yihad que sacude el Universo. Las consecuencias de poner las riendas del poder en manos de superhéroes, en lugar de dejarlas a una humanidad consciente y responsable conforman el tema principal en la saga de Dune. En un famoso ensayo sobre los orígenes de la novela Frank Herbert dijo: También dijo: Desde una perspectiva histórica, pueden encontrarse similitudes entre los eventos narrativos de Dune y otras grandes figuras mesiánicas de la Historia: el hecho de que un hombre nacido en el extranjero, proveniente de un viejo orden colonial, logre unir a dispersas y aguerridas tribus de nómadas religiosos del desierto, y ganar la libertad frente a un decadente poder Imperial es casi una imagen espejo de la Revuelta Árabe de Oriente Medio a comienzos del , en la que un oficial británico, Thomas Edward Lawrence, movilizó a guerreros árabes para quebrar el poder del Imperio otomano en la península Arábica. Ecología La ecología cultural, término asociado con el antropólogo Julian Steward (1955), estudia las relaciones entre una sociedad dada y su medioambiente - las formas de vida y los ecosistemas que dan soporte a sus modos de vida. El argumento central es que el medioambiente es un factor principal que contribuye a la organización social y a otras instituciones humanas. En particular aquellas relacionadas con la distribución de la riqueza y el poder en una sociedad, y en como afecta a comportamientos tales como el acaparamiento o a la generosidad. Tras la publicación en 1962 del libro Primavera Silenciosa, de Rachel Carson llegó el primer toque de alarma medioambientalista sobre la llegada de la muerte del planeta debido a la actividad humana. La concepción de un planeta como un complejo y casi viviente ser, la compleja descripción de la vida en Arrakis, desde el ciclo vital de los gigantescos gusanos de arena, para los cuales el agua es mortal, hasta las pequeñas formas de vida, ratones y halcones adaptados a la hostilidad del desierto forman un paisaje donde el hombre debe alcanzar un compromiso con su entorno. Los habitantes del planeta, los Fremen, se ven sometidos a uno de los ecosistemas más hostiles que se puedan imaginar, lo que conduce su cultura a focalizarse en la supervivencia y el reciclado: en un entorno tan pobre en recursos, nada puede desperdiciarse. Los fremen deben llegar a ese compromiso con su entorno sacrificando en parte su deseo de un planeta más húmedo en favor de los gusanos de arena que son tan importantes en su cultura y economía. Otras novelas posteriores han seguido presentando ecologías complejas y únicas y su relación con la cultura humana, como la Trilogía marciana (1992) de Kim Stanley Robinson. Eugenesia La eugenesia defiende la mejora de los rasgos hereditarios humanos mediante varias formas de intervención. En 1965 los avances en genética iban abriendo una puerta a la revisión de la eugenesia como política aplicable, concepto duramente discutido y estigmatizado tras la experiencia de la Alemania nazi, cuando políticos y miembros de la comunidad científica internacional renegaron públicamente de muchas de las ideas sobre la «higiene racial» y los miembros «no aptos» de la sociedad. En Dune se da lo que se denomina eugenesia positiva, favorecer la reproducción de los considerados aptos genéticamente, frente a la eugenesia negativa que obstaculiza la de los "no-aptos". El programa genético que durante generaciones desarrolla la Bene Gesserit en busca de la consecución de un super-humano, el Kwisatz Haderach, sigue un esquema reproductivo según el cual establecen los individuos más aptos para procrear, según las características que se desean agregar, mejorar o reforzar en las diversas líneas genéticas que lo forman. Debido a un accidente imprevisto (el amor de Jessica Atreides por su Duque y su desobediencia a la Bene Gesserit al concebir un niño), el programa escapa a su control en sus últimas fases y Paul, un Kwisatz Haderach prematuro, sacude el imperio y el universo al reunir en su figura los poderes religioso, militar y político. Economía, religión y política La extrema dependencia económica del imperio respecto a la melange en Dune se centra en que este recurso, imprescindible para la realización de los viajes espaciales que permiten la supervivencia del tejido económico y social del mismo, tiene como única fuente en el universo los gusanos de arena de Arrakis. Esto plantea una situación de despotismo hidráulico, una dependencia respecto a un recurso en concreto cuya producción está concentrada en una sola fuente. En el anteriormente mencionado ensayo de Frank Herbert este afirmaba que la CHOAM es la OPEP, estableciendo así un paralelismo entre la melange y el petróleo. La influencia de la religión en los movimientos sociales está reflejada en las manipulaciones de la Missionaria Protectiva con las que la Bene Gesserit busca la preparación del terreno que permita el surgimiento de un mesías que, reuniendo toda la sociedad a su alrededor, pueda alcanzar el poder. Cuando una figura religiosa aparece amenazando la producción de melange, el tejido económico del imperio se ve amenazado, y el poder político cae. (Ver Mesianismo) El desierto El paralelismo entre melange y petróleo y el hecho de que los más importantes movimientos mesiánicos tuvieran su origen en el desierto convirtió este en el paisaje de la novela. De ese modo, la civilización de Dune se vio inspirada en la civilización árabe: El desierto en Dune es llevado al extremo: el agua es el bien más preciado. Toda la tecnología gira en torno a la recuperación del agua: destiltrajes para recuperar y reciclar el agua que exuda el cuerpo, trampas de viento para capturar la escasa humedad del ambiente. El agua es el elemento principal de cambio del planeta, siendo incluso la moneda de los Fremen, simbolizada en los anillos de agua. En un ambiente tan hostil, la tribu es el único refugio del individuo. El agua pertenece a la tribu, y el agua de los cadáveres debe ser reciclada y retornada a la tribu. Una de los máximas expresiones de dolor es el llanto, dar agua al muerto. Stilgar, el naib fremen, escupe sobre la mesa en señal de respeto al Duque Leto. Preludios y continuaciones Se han publicado en castellano nuevas trilogías que complementan la saga original escritas por su hijo Brian Herbert en colaboración con el escritor de ciencia ficción Kevin J. Anderson. Los autores afirman que sus novelas parten de notas dejadas por Frank Herbert antes de su muerte. Leyendas de Dune Tras el primer preludio los mismos autores retrocedieron de nuevo en el tiempo de la saga y publicaron una nueva trilogía, ambientada en los tiempos de la Yihad Butleriana, compuesta por Dune: La Yihad Butleriana, Dune: La cruzada de las máquinas y Dune: La batalla de Corrin. En esta trilogía se introduce a los Titanes, ciborgs de cerebro humano y cuerpo mecánico, que conspiran para liberarse del dominio de Omnius, supermente líder de los Planetas Sincronizados y recuperar el poder sobre la humanidad. El inicio de la guerra de liberación contra las Máquinas Pensantes lideradas por Omnius se dará en la antigua Tierra, cuando el robot Erasmo mata al hijo de Serena Butler, hija del virrey de la Liga de los Nobles. Se cuenta el enfrentamiento de la Liga de los Nobles frente a las Máquinas Pensantes, con el Primero Xavier Harkonnen como uno de los líderes militares y ayudados por Vorian Atreides, hijo humano del titán Agamenón, y la traición que lo convertirá en enemigo de Abulurd Harkonnen, enemistad que perdurará entre ambas Casas durante milenios. Se desvelan también los orígenes de la Bene Gesserit, de los doctores Suk, de los Mentat y del viaje instantáneo y la Cofradía Espacial. Y el inicio del Imperio del Universo Conocido en la Batalla de Corrin. Preludio a Dune Este primer preludio se publicó en tres novelas tituladas Dune: La Casa Atreides, Dune: La Casa Harkonnen y Dune: La Casa Corrino. En ellas se desarrollan los acontecimientos que condujeron a la situación creada al principio de la saga original. Así el lector se encuentra con las maquinaciones de Shaddam Corrino para arrebatarle el trono a su padre, y su intento de eliminar el monopolio de la melange encargando a los tleilaxu el desarrollo de un substitutivo sintético, el Amal. La conquista de Ix por los Tleilaxu acaba provocando la caída de la casa Vernius, y su liberación por parte de los habitantes, el nacimiento de Ix como corporación. La Reverenda Madre Mohiam chantajea al Barón Vladimir Harkonnen para concebir a Jessica, quien desobedecerá el programa Kwisatz Haderach de la Bene Gesserit concibiendo un hijo del joven Duque Leto Atreides, en el inicio de su ascendente carrera política en el Landsraad. Dune 7 Han sido publicadas dos novelas más, continuaciones de la saga original construidas a partir de notas dejadas por Frank Herbert y que solo fueron encontradas después de su muerte: Cazadores de Dune (2008) y Gusanos de arena de Dune (2009), basadas en un hipotético séptimo título de la saga original que Frank Herbert tenía previsto. En Cazadores de Dune, la Ithaca, la nave de Duncan Idaho emprende su exótica odisea por los confines inexplorados del universo, acosado por un misterioso y aterrador Enemigo. Para poder enfrentarse a él, los fugitivos necesitan hacerse más fuertes: la única alternativa es recurrir a la tecnología genética de Scytale, y así poder revivir las figuras del Dune del pasado y sus prodigiosas habilidades. Murbella continúa el proceso de asimilación de las Honoradas Matres y las Bene Gesserit en una Nueva Hermandad, eliminando los restos de Matres rebeldes y preparándose para enfrentarse al Enemigo, las antiguas Máquinas Pensantes Omnius y Erasmo, encarnados en Daniel y Marty, los supuestos danzarines rostro que observaban a Idaho al final de Casa Capitular Dune. Héroes de Dune Brian Herbert y Kevin J. Anderson publicaron en 2008 "Paul de Dune", conectado al final de "Dune" de Frank Herbert. En 2009 publican "Vientos de Dune", que transcurre con posterioridad a "El Mesías de Dune". Aparentemente escribirían dos libros más, uno sobre Irulan y otro sobre Leto (hijo de Paul). Grandes Escuelas de Dune En 2012 publicaron "La Hermandad de Dune" y en marzo de 2014 "Los Mentats", que formarán parte de una trilogía sobre la formación de las grandes escuelas: Bene Gesserit, de los doctores Suk, de los Mentat, la Cofradía Espacial y del inicio del Imperio del Universo Conocido en la Batalla de Corrin. Adaptaciones Cine Proyecto de Alejandro Jodorowsky El éxito de la novela impulsó enseguida la idea de trasladarla a la gran pantalla. Alejandro Jodorowsky tuvo intención de hacerse cargo del proyecto, llegando a escribir un guion del largometraje de más de 10 horas de duración. Con la ayuda de Jean Giraud, conocido como Moebius, y H. R. Giger para la creación de la atmósfera visual, Dune iba a contar con Orson Welles en el papel del Barón Harkonnen y Salvador Dalí como el Emperador Shaddam IV. La banda sonora iba a estar a cargo de distintos artistas como Pink Floyd, Magma y Karlheinz Stockhausen, entre otros. Para muchos especialistas el guion escrito por Jodorowsky fue una fuente de inspiración en películas como Star Wars, Blade Runner y Alien: el octavo pasajero. El 19 de noviembre de 2021 una copia del manuscrito fue subastado por 2,66 millones de euros. Película de David Lynch Finalmente, y tras pasar por las manos de varios directores, el productor Dino de Laurentiis encargó la realización de Dune (1984) al director David Lynch, que contaba en su haber el éxito de El hombre elefante (1980). Con su amigo Kyle MacLachlan en el papel protagonista de Paul Atreides, la película contó con grandes actores y actrices en su elenco: las británicas Francesca Annis y Siân Phillips como lady Jessica y la reverenda madre Gaius Helen Mohiam respectivamente, el alemán Jürgen Prochnow como el duque Leto Atreides, Sting como Feyd Rautha Harkonnen, Kenneth McMillan como el perverso barón Harkonnen o un joven Brad Dourif en el papel del Mentat Piter de Vries; además contó con la participación de Patrick Stewart interpretando a Gurney Halleck, el maestro de armas de Paul Atreides. La banda sonora original fue compuesta por el grupo estadounidense Toto, aunque el tema principal de la película, "Prophecy Theme" fue encargado a Brian Eno. Proyecto de Paramount En 2008 se anunció una nueva película basada en el libro, que sería dirigida por Peter Berg y producida por Paramount Pictures. El magacine Variety mencionaba que los productores buscaban realizar una «adaptación fiel» de la novela, y consideraban «el concepto de los recursos ecológicos finitos particularmente actuales». El hijo de Frank Herbert, Brian Herbert, y el también escritor Kevin J. Anderson, que han escrito en colaboración varios secuelas y preludios de Dune desde 1999, formarían parte del equipo como consejeros técnicos según AMCTV. Sin embargo, el proyecto fue finalmente cancelado. Versión de Denis Villeneuve Según informó Variety el 22 de diciembre de 2016, Legendary Pictures se encontraba en negociaciones con el director canadiense Denis Villeneuve, autor de otras dos películas del género: La llegada y Blade Runner 2049, para dirigir definitivamente una nueva versión cinematográfica, tras adquirir aquella sus derechos. El 1 de febrero de 2017, Brian Herbert confirmó vía Twitter que Villeneuve se haría cargo de la nueva adaptación cinematográfica del universo de Dune, cuya plasmación sería en un formato cinematográfico de saga como El Señor de los Anillos. Su guionista sería Eric Roth. El 9 de noviembre, Brian confirmaba nuevamente a través de la misma red social que ya tenían finalizado el primer borrador del guion. Cinco días después se hizo pública una entrevista en la que Villeneuve declaraba que la nueva versión no sería un adaptación de la película de 1984. En enero de 2018, el director reveló a Fandom que Dune sería una película de "Star Wars para adultos", añadiendo que su pretensión seguía siendo adaptar la novela de Herbert, estando dispuesto a hacer una secuela en el futuro. En marzo de 2018, a su paso por el Festival Rendez-Vous du Cinema Quebecois declaró que "Dune tardaría probablemente un par de años en realizarse", añadiendo que "El objetivo es hacer al menos dos películas, o quizás más", aclarando además que la elipsis temporal de la historia facilitaría la acción de partir el relato en dos partes. Dos meses después, al hablar con la prensa francesa, el cineasta confirmaba que su adaptación se dividiría definitivamente en dos partes, hubiéndole gustado poder dirigir ambas películas al mismo tiempo, pero que hubiera sido demasiado caro, por lo que finalmente las harían por separado. Villeneuve continuó declarando que tenía la intención de comenzar la preproducción pronto, añadiendo que Eric Roth había escrito el primer borrador y el propio Villeneuve trabajado en el texto. El 12 de julio se informó que la producción de Dune se iniciaría el mes de febrero de 2019, teniendo lugar en los estudios Orgio Film, en Budapest (Hungría), donde precisamente Villeneuve rodó Blade Runner 2049. Los reiterados anuncios de casting se fueron sucediendo hasta que finalmente el 15 de febrero Warner Bros. anunció que la producción de Legendary dirigida por Denis Villeneuve llegaría a los cines el 20 de noviembre de 2020 en formato 3D e Imax. Se confirmaron en la adaptación de la novela a Eric Roth, Jon Spaihts y Villeneuve, y en la producción a Mary Parent y Cale Boyter de Legendary junto al director canadiense. Los productores ejecutivos son Thomas Tull, Brian Herbert, Byron Merritt y Kim Herbert para el patrimonio de Frank Herbert, con Kevin J. Anderson como consultor creativo. La producción dio inicio el 18 de marzo de 2019 en Budapest y Jordania. Debido a la pandemia de coronavirus su estreno en Estados Unidos se pospuso para el 22 de octubre de 2021, mientras que en Europa y otros países lo hizo a partir del 15 de septiembre de ese mismo año. Televisión Se han realizado también dos miniseries de televisión que abarcan las tres primeras novelas de la saga (Scifi Channel): Dune, miniserie de 2000 basada en la primera novela de la saga. Hijos de Dune, miniserie de 2003 continuación de la miniserie anterior y basada en las novelas El Mesías de Dune e Hijos de Dune. Actualmente está en preparación una serie sobre la hermandad Bene Gesserit, producida por Legendary TV y Villeneuve Films, que será distribuida por HBO Max. Funcionará a modo de spin-off de la adaptación al cine de Dune de 2021 y tiene como título Dune: The Sisterhood. Cómics La versión en cómic es una adaptación de la película de David Lynch. La Marvel se tomó muy en serio dicho cometido y contó con ello con el arte del dibujante Bill Sienkiewicz, consiguiendo que las viñetas fueran un escrupuloso reflejo del filme, incluso, por primera vez, esa fidelidad se vio plasmada en el parecido hiperrealista de los dibujos con los actores de la película. En España fue editado por Ediciones Forum dentro de la colección Novelas Gráficas Marvel (1985). Videojuegos El legado de Dune ha sido aprovechado para la realización de varios videojuegos: Dune Creado por Virgin Interactive, en el año 1990, fue un exitoso juego que conjugaba lo mejor de las aventuras gráficas de la época con algunos elementos de lo que, con posterioridad, serían los juegos de estrategia. La colaboración con la empresa Cryo dotaría al juego de una interfaz muy atractiva en lo gráfico, que supo unirse a unos requisitos gráficos adecuados para el momento y una conseguida banda sonora (posteriormente comercializada aparte). Dune II Está considerada como la más exitosa producción de la franquicia. Se configuró como el juego de estrategia en tiempo real referente, siendo la primera vez que se dividió el juego en 3 casas: Atreides, Harkonnen y Ordos. Destaca su moderna interfaz, modo de juego, así como la adecuación, e innovación en lo que a la saga literaria de Dune se refiere. Surgió en 1992 y fue ya desarrollado por Westwood Studios. Dune 2000 En el año 1998 surge la tercera entrega de la saga, Dune 2000. El juego sigue, en lo fundamental, la estructura de la anterior entrega, adaptando el juego a los tiempo modernos (mejorando jugabilidad y gráficos). Se añadieron escenas cinematográficas de alta definición y una muy interesante banda sonora, como en las anteriores entregas. Emperor 58 - Battle for Dune Gráficamente fue todo un éxito en lo que a los juegos de estrategia en tiempo real se refiere. Surgió en 2001. Destaca una muy lograda banda sonora, que fue comercializada por separado. House Atreides Frank Klepacki House Harkonnen David Arkenstone House Ordos Jarrid Mendelson Frank Herbert's Dune Desarrollado por DreamCatcher Interactive, vio la luz en diciembre de 2001. Intentó seguir la trama de la adaptación cinematográfica coetánea. Solo la música fue bien recibida por la crítica. Notas y referencias Bibliografía Enlaces externos Ficha bibliográfica de Dune en La Tercera Fundación Observaciones y análisis de la obra y sus influencias Reportaje sobre Dune en Fantasymundo Novelas de Dune Eugenesia en la ficción Novelas estadounidenses adaptadas al cine Películas con música de Hans Zimmer
495_0
Douglas Rushkoff
Douglas Rushkoff (Nueva York, 18 de febrero de 1961, ) es un escritor, columnista y profesor de cultura virtual, estadounidense, en la Universidad de Nueva York. Psiconauta, es uno de los principales teóricos del cyberpunk. Colaborador habitual de la revista Times y del periódico New York Times. Es citado en el anime Serial Experiments Lain como quien declaró que, debido a la Resonancia Schumann, los humanos se convertirán en las neuronas del planeta, lo que despertará la conciencia de la especie humana. Obras publicadas Ciberia Playing the future Media Virus Ecstasy Club Coerción Democracia de Código Abierto La Supervivencia de los más ricos Enlaces externos sitio Web El Pais, septiembre 2023: Douglas Rushkoff, escritor: La élite tecnológica se prepara para el apocalipsis, ve cerca el fin de la civilización. El Diario, septiembre 2023. Douglas Rushkoff: Los milmillonarios tecnológicos saben que están llevando el mundo al colapso y quieren escapar. Referencias Escritores de Estados Unidos Ensayistas de Estados Unidos Periodistas de Estados Unidos Escritores en inglés
511_0
Electronvoltio
El electronvoltio (símbolo eV) es una unidad de energía que representa la variación de energía que experimenta un electrón al moverse desde un punto de potencial Va hasta un punto de potencial Vb cuando la diferencia Vba = Vb-Va = 1 V, es decir, cuando la diferencia de potencial del campo eléctrico es de 1 voltio. Su valor es 1,602 176 634 × 10−19 J. Es una de las unidades aceptadas para su uso en el Sistema Internacional de Unidades, pero que no pertenece estrictamente a él. En física de altas energías, el electronvoltio resulta una unidad muy pequeña, por lo que son de uso frecuente múltiplos como el megaelectronvoltio MeV o el gigaelectronvoltio GeV. En la actualidad, con los más potentes aceleradores de partículas, se han alcanzado energías del orden del teraelectronvoltio TeV (un ejemplo es el gran colisionador de hadrones, LHC, que está preparado para operar con una energía de hasta 14 teraelectronvoltios). Hay objetos en nuestro universo que son aceleradores a energías aún mayores: se han detectado rayos gamma de decenas de TeV y rayos cósmicos de petaelectronvoltios (PeV, mil TeV), y hasta de decenas de exaelectronovoltios (EeV, equivalente a mil PeV). Algunos múltiplos típicos son: 1 keV = 103 eV 1 MeV = 103 keV = 106 eV 1 GeV = 103 MeV = 109 eV 1 TeV = 103 GeV = 1012 eV 1 PeV = 103 TeV = 1015 eV 1 EeV = 103 PeV = 1018 eV En física de partículas se usa indistintamente como unidad de masa y de energía, ya que en relatividad ambas magnitudes se refieren a lo mismo. La relación de Einstein, E = m·c², da lugar a una unidad de masa correspondiente al eV (despejando m de la ecuación) que se denomina eV/c². 1 eV/c² = 1,783 × 10-36 kg 1 keV/c² = 1,783 × 10-33 kg 1 MeV/c² = 1,783 × 10-30 kg 1 GeV/c² = 1,783 × 10-27 kg Definición Un electronvoltio es la cantidad de energía cinética ganada o perdida por un solo electrón acelerando desde el reposo a través de una diferencia de potencial eléctrico de un voltio en el vacío. Por lo tanto, tiene un valor de un voltio, 1 J/C, multiplicado por la carga elemental e = 1.602176634×10−19 C. Por lo tanto, un electronvoltio es igual a un eV. El electronvoltio (eV) es una unidad de energía, pero no es una unidad del Sistema Internacional de Unidades. La unidad de energía del SI es el julio (J). Historia La unidad electronvoltio, entonces todavía conocida como el "voltio equivalente", se utilizó por primera vez en 1912 en Philosophical Magazine en un artículo de Karel Taylor Compton y Owen Willans Richardson sobre El efecto fotoeléctrico. En EE.UU., con el desarrollo de la física de partículas, se empezó a utilizar la unidad BeV (o bev o Bev), donde B representaba un billón (del inglés " billion "). En 1948, sin embargo, la IUPAP rechazó su uso y prefirió el uso del prefijo gig para mil millones de electronvoltios, por lo que la unidad se abrevia GeV. En algunas publicaciones antiguas, se usa "ev" como abreviatura de electronvoltio. El nombre del acelerador de partículas Bevatron (en funcionamiento de 1954 a 1993, Berkeley, EE.UU.) se derivó de la unidad BeV. Según la misma clave, se nombró al acelerador Tevatron (1983-2011, Illinois), que aceleraba protones y antiprotones a energías de hasta 1 TeV. El nombre Zevatron se usa a veces con exageración para fuentes astrofísicas naturales de partículas con energías de hasta 1021 eV (prefijo zetta). Nunca antes se había registrado la mayor energía de una sola partícula. Relación con otras propiedades físicas y unidades Masa Por equivalencia masa-energía, el electronvoltio corresponde a una unidad de masa. Es común en física de partículas, donde las unidades de masa y energía a menudo se intercambian, expresar la masa en unidades de eV/c2, donde c es la velocidad de la luz en el vacío (de ). Es común expresar informalmente la masa en términos de eV como unidad de masa, utilizando efectivamente un sistema de unidades naturales con c fijado en 1. El kilogramo equivalente de 1eV/c2 es: Por ejemplo, un electrón y un positrón, cada uno con una masa de 0.511 MeV/c², pueden aniquilarse para producir 1,022 MeV de energía. Un protón tiene una masa de 0,938 GeV/c². En general, las masas de todos los hadroness son del orden de 1 GeV/c², lo que hace del GeV/c2 una unidad de masa conveniente para la física de partículas: 1 GeV/c² = 1.78266192×10−27 kg. La constante de masa atómica (mu), una doceava parte de la masa de un átomo de carbono-12, se aproxima a la masa de un protón. Para convertir a electronvoltio masa-equivalente, utilice la fórmula: mu = 1 Da = 931.4941 MeV/c² = 0.9314941 GeV/c². Temperatura En determinados campos, tal como la física del plasma, es conveniente utilizar el electronvoltio para expresar temperaturas. El electronvoltio es dividido por la constante de Boltzmann para convertir a la escala Kelvin: Donde kB es la constante de Boltzmann, K es Kelvin, J es Joules, eV es electronvoltios. Por ejemplo, un plasma típico de confinamiento magnético de fusión es 15 keV (kilo-electronvoltios), lo que es igual a 174 MK (millones de Kelvin). En forma aproximada: kBT es 0.025 eV (≈ ) a una temperatura de 20 °C. Momento En la física de altas energías, a menudo se utiliza el electronvoltio como unidad de momento (cantidad de movimiento). Una diferencia de potencial de 1 voltio causa que un electrón gane una cantidad de energía (o sea 1 eV). Ello da lugar al uso de eV (y keV, MeV, GeV o TeV) como unidaes de momento, porque la energía provista resulta en la aceleración de la partícula. Las dimensiones de las unidades de momento son L1 M1 T -1. Las dimensiones de unidades de energía son L2 M1 T -2. Por lo tanto, dividiendo las unidades de energía (tales como eV) por una constante fundamental que tiene unidades de velocidad L1 T -1, facilita la conversión requerida de utilizar unidades de energía para describir momento. En el campo de la física de partículas de alta energía, la unidad de velocidad fundamental es la velocidad de la luz en el vacío c. Si se divide la energía en eV por la velocidad de la luz, se puede describir el momento de un electrón en unidades de eV/c. La constante fundamental de velocidad c a menudo es dejada de lado de las unidades de momento mediante definir unidades de longitud tal como el valor de c es unitario. Por ejemplo, si el momento p de un electrón se dice que es de 1 GeV, por lo que la conversión a MKS se realiza como: Distancia En física de partículas, un sistema de "unidades naturales" en el cual la velocidad de la luz en el vacío c y la constante de Planck reducida ħ son adimensionales e iguales a la unidad es ampliamente utilizado: . En estas unidades, tanto distancias como tiempos son expresados en unidades de energía inversas (mientras que energía y masa son expresados en las mismas unidades, véase equivalencia masa energía). En particular, las longitudes de dispersión de partículas a menudo son presentadas en unidades de la inversa de las masas de partículas. Fuera de este sistema de unidades, los factores de conversión entre electronvoltio, segundo y nanómetro son las siguientes: Estas relaciones también permiten expresar la vida media τ de una partícula inestable (en segundos) en función de su ancho de la resonancia Γ (en eV) mediante Γ = ħ/τ. Por ejemplo, el mesón B0 posee una vida media of 1.530(9) picosegundos, ancho medio de resonancia es cτ = 459.7 μm, o un ancho de resonancia de 4.302 10-4 eV. En cambio, las minúsculas diferencias de masas de los mesones responsables de las oscilaciones de los mesones a menudo son expresadas en picosegundos inversos unidad que resulta más conveniente. La energía expresada en electronvoltios a veces es expresada mediante la longitud de onda de la luz con fotones de la misma energía: a menudo son presentadas en unidades de la inversa de la masa de la partícula. Tamaño de la unidad El electrón voltio es una cantidad extremadamente pequeña de energía en una escala común. La energía de un mosquito volador es de aproximadamente un billón de electronvoltios. Por lo tanto, la unidad es útil donde las energías típicas son muy pequeñas, es decir, en un mundo de partículas. Aquí, también, 1 eV es a menudo una energía relativamente pequeña, por lo que se utilizan múltiplos y prefijos más grandes : 1 keV es mil eV, 1 MeV es un millón de eV, 1 GeV es mil millones de eV, 1 TeV es un billón de eV. En ocasiones se utiliza la abreviatura como sigla. El acelerador de partículas más grande (LHC) suministra a cada protón 7 TeV. Al romper un solo núcleo de uranio 235U, se liberan aproximadamente 215 MeV. [8] Al combinar un núcleo de un átomo de deuterio con un núcleo de tritio, se liberan 17,6 MeV. En las pantallas de televisión en color, los electrones son acelerados por un alto voltaje de unos 32.000 voltios, de modo que los electrones adquieren una energía cinética de 32 keV. Los electronvoltios son muy adecuados para medir la energía de los enlaces químicos, son del orden de unidades o decenas de eV por una molécula. Se requieren 13,6 eV para extraer un electrón de un átomo de hidrógeno (ionización). El orden de eV también tiene energías de fotones de luz visible. En la termodinámica se producen energías inferiores a los electronvoltios; por ejemplo, la energía cinética media de las partículas de aire a temperatura ambiente es de 38 meV (millielectronvoltios). La velocidad de un electrón con una energía cinética de 1 eV es de aproximadamente 593 km/s. La velocidad de un protón con la misma energía cinética es entonces de solo 13,8 km/s. La magnitud del electronvoltio en unidades SI se determina midiendo la carga del electrón. El más preciso de los métodos conocidos es la medición del efecto Josephson, que determina el valor de la constante de Josephson . La magnitud de la carga elemental se determina entonces a partir de la relación . Zde . Aquí es la constante de von Klitzing , que se mide con mayor precisión que . La desviación estándar relativa de la medición constante de Josephson es 2,5 × 10 −8 (2,5 millonésimas de porcentaje ), y la conversión de un electrón-voltio en un julio es igual de precisa. Experimentos de dispersión En un experimento de dispersión nuclear de baja energía, es convencional referirse a la energía de retroceso nuclear en unidades de eVr, keVr, etc. Esto distingue la energía de retroceso nuclear de la energía de retroceso "equivalente al electrón" (eVee, keVee, etc.) medida por luz de centelleo. Por ejemplo, el rendimiento de un fototubo se mide en phe/keVee (fotoelectróns por keV de energía equivalente al electrón). La relación entre eV, eVr y eVee depende del medio en el que tiene lugar la dispersión, y debe establecerse empíricamente para cada material. Medición En la práctica técnica, es ventajoso que para partículas con carga elemental, el cambio de energía en electronvoltios corresponda directamente al voltaje eléctrico en voltios por el cual la partícula es acelerada (o frenada). Un ejemplo es un aparato para observar un efecto fotoeléctrico externo, donde se utiliza un campo eléctrico de frenado para determinar la energía de los electrones. La luz (u otra radiación) pasa a través de una ventana hacia un matraz vacío y golpea un cátodo para arrancar electrones de su superficie. Vuelan a través de la rejilla, golpeando el ánodo y creando una corriente eléctrica en el circuito, que medimos con un microamperímetro. Para determinar la energía de los electrones voladores, configuramos usando un potenciómetro tensión de frenado entre el cátodo y la red. Este campo eléctrico devuelve pocos electrones de energía al cátodo y no participan en la conducción de corriente. Sin embargo, si el electrón tiene suficiente energía cinética, supera el campo de frenado y continúa hacia el ánodo. La energía cinética necesaria en electronvoltios corresponde directamente a la tensión de frenado en voltios. Por lo tanto, podemos determinar experimentalmente el valor extremo del voltaje entre el cátodo y la rejilla en el que todavía fluye una corriente a través del circuito, por ejemplo, 1,2 voltios. Esto significa que la luz suministra electrones con una energía cinética de 1,2 electronvoltios. En la práctica, por lo tanto, a menudo comparamos el valor desconocido de la energía de la partícula directamente con el electrón-voltio y no con las unidades del sistema SI. Esta es una de las principales razones para configurar esta unidad. La imprecisión del factor de conversión entre eV y J suele ser completamente insignificante debido a errores de medición en condiciones normales de laboratorio. Además, el electrón-voltio se puede calcular con mucha más precisión que el julio según la definición del SI. Referencias Bibliografía Donald H. Perkins. Introduction to High Energy Physics 4th Edition. (2000). 442 pág. ISBN 0521621968, ISBN 978-0521621960. David Griffiths. Introduction to Elementary Particles 2nd Edition. (2008). 470 pág. ISBN 9783527406012, ISBN 978-3527406012 Enlaces externos BIPM's definition of the electronvolt physical constants reference; CODATA data Unidades de energía
512_0
Electrónica
La electrónica es una rama de la física aplicada que comprende la física, la ingeniería, la tecnología y las aplicaciones que tratan con la emisión, el flujo y el control de los electrones u otras partículas cargadas eléctricamente— en el vacío y la materia. La identificación del electrón en 1897, junto con la invención del tubo de vacío, que podía amplificar y rectificar pequeñas señales eléctricas, inauguraron el campo de la electrónica y la edad del electrón. La electrónica trata con circuitos eléctricos que involucran componentes eléctricos activos como tubos de vacío, transistores, diodos, circuitos integrados, optoelectrónica y sensores, asociados con componentes eléctricos pasivos y tecnologías de interconexión. Generalmente los dispositivos electrónicos contienen circuitos que consisten principalmente, o exclusivamente, en semiconductores activos complementados con elementos pasivos; tal circuito se describe como un circuito electrónico. El comportamiento no lineal de los componentes activos y su capacidad para controlar los flujos de electrones hace posible la amplificación de señales débiles. La electrónica es ampliamente utilizada en el procesamiento de datos, en las telecomunicaciones y en el procesamiento de señales. La capacidad de los dispositivos electrónicos para actuar como interruptores hace posible el procesamiento digital de la información. Las tecnologías de interconexión, como los circuitos impresos, la tecnología de empaquetado electrónico y otras formas variadas de infraestructuras de comunicación, completan la funcionalidad del circuito y transforman los componentes electrónicos mixtos en un sistema de trabajo regular, llamado sistema electrónico; son ejemplos las computadoras o los sistemas de control. Un sistema electrónico puede ser un dispositivo independiente o un componente de otro sistema diseñado. La ciencia y tecnología eléctricas y electromecánicas se ocupan de la generación, distribución, conmutación, almacenamiento y conversión de la energía eléctrica hacia y desde otras formas de energía (usando cables, motores, generadores, baterías, interruptores, relés, transformadores, resistencias y otros componentes pasivos) . Esta distinción comenzó alrededor de 1906 con la invención del triodo, inventado por Lee De Forest, que hizo posible la amplificación eléctrica de señales de radio y señales de audio débiles con un dispositivo no mecánico. Hasta 1950, este campo se denominaba «tecnología de radio» porque su aplicación principal era el diseño y la teoría de transmisores de radio, receptores y tubos de vacío. Actualmente, la mayoría de los dispositivos electrónicos usan componentes semiconductores para realizar el control de los electrones. El estudio de los dispositivos semiconductores y la tecnología relacionada se considera una rama de la física del estado sólido, mientras que el diseño y la construcción de los circuitos electrónicos para resolver problemas prácticos concierne a la ingeniería electrónica. Este artículo se centra en los aspectos de la ingeniería de la electrónica. Las ramas de la electrónica La electrónica tiene las siguientes ramas: Historia Thomas Edison fue el primero que observó en 1883 la emisión termoiónica o efecto Edison, al colocar una lámina dentro de una bombilla para evitar el ennegrecimiento que producía en la ampolla de vidrio el filamento de carbón. Cuando se polarizaba positivamente la lámina metálica respecto al filamento, se producía una pequeña corriente entre el filamento y la lámina. Este hecho se producía porque los electrones de los átomos del filamento, al recibir una gran cantidad de energía en forma de calor, escapaban de la atracción del núcleo (emisión termoiónica) y, atravesando el espacio vacío dentro de la bombilla, eran atraídos por la polaridad positiva de la lámina. El ingeniero británico sir John Ambrose Fleming (1849-1945) aplicó el efecto Edison a un tubo para detectar las ondas hertzianas e inventó así el diodo, primer tubo electrónico en el que se había hecho el vacío y en cuyo interior existía un ánodo (electrodo positivo) y un cátodo (electrodo negativo). Al alcanzar el estado de incandescencia, el cátodo emitía electrones con carga negativa que eran atraídos por el ánodo; es decir, el diodo actuaba como una válvula que solo dejaba pasar la corriente en un sentido. El otro gran paso lo dio Lee De Forest cuando inventó el triodo en 1906. Este dispositivo es básicamente como el diodo de vacío, pero se le añadió una rejilla de control situada entre el cátodo y la placa, con el objeto de modificar la nube electrónica del cátodo, variando así la corriente de placa. Este fue un paso muy importante para la fabricación de los primeros amplificadores de sonido, receptores de radio, televisores, etc. Lee De Forest es considerado el "padre de la electrónica", ya que antes del triodo, solo se podía convertir la corriente alterna en corriente directa o continua, o sea, solo se construían las fuentes de alimentación, pero con la creación del triodo de vacío, vino la amplificación de todo tipo de señales, sobre todo la de audio, la radio, la TV y todo lo demás, esto hizo que la industria de estos equipos tuvieran un repunte tan grande que ya para las décadas superiores a 1930 se acuñara la palabra por primera vez de "electrónica" para referirse a la tecnología de estos equipos emergentes. Conforme pasaba el tiempo, las válvulas de vacío se fueron perfeccionando y mejorando, apareciendo otros tipos, como los tetrodos (válvulas de cuatro electrodos), los pentodos (cinco electrodos), otras válvulas para aplicaciones de alta potencia, etc. Dentro de los perfeccionamientos de las válvulas se encontraba su miniaturización. Pero fue definitivamente con el transistor, aparecido de la mano de John Bardeen y Walter Brattain, de la Bell Telephone Company, en 1948, cuando se permitió aún una mayor miniaturización de aparatos tales como las radios. El transistor de unión apareció algo más tarde, en 1949. Este es el dispositivo utilizado actualmente para la mayoría de las aplicaciones de la electrónica. Sus ventajas respecto a las válvulas son entre otras: menor tamaño y fragilidad, mayor rendimiento energético, menores voltajes de alimentación, etc. El transistor no funciona en vacío como las válvulas, sino en un estado sólido semiconductor (silicio), razón por la que no necesita centenares de voltios para funcionar. A pesar de la expansión de los semiconductores, todavía se siguen utilizando las válvulas en pequeños círculos audiófilos, porque constituyen uno de sus mitos más extendidos. El transistor tiene tres terminales (el emisor, la base y el colector) y se asemeja a un triodo: la base sería la rejilla de control, el emisor el cátodo, y el colector la placa. Polarizando adecuadamente estos tres terminales se consigue controlar una gran corriente de colector a partir de una pequeña corriente de base. En 1958, Jack S. Kilby diseño el primer circuito integrado, que alojaba seis transistores en un único chip. En 1970 Federico Faggin, Ted Hoff y Masatoshi Shima diseñaron el primer microprocesador, Intel 4004. En la actualidad, los campos de desarrollo de la electrónica son tan vastos que se ha dividido en varias disciplinas especializadas. La mayor división es la que distingue la electrónica analógica de la electrónica digital. La electrónica es, por tanto, una de las ramas de la ingeniería con mayor proyección en el futuro, junto con la informática. Aplicaciones de la electrónica La electrónica desarrolla en la actualidad una gran variedad de tareas. Los principales usos de los circuitos electrónicos son el control, el procesamiento, la distribución de información, la conversión y la distribución de la energía eléctrica. Estos usos implican la creación o la detección de campos electromagnéticos y corrientes eléctricas. Entonces se puede decir que la electrónica abarca en general las siguientes áreas de aplicación: Electrónica de control Telecomunicaciones Electrónica de potencia Sistemas electrónicos Un sistema electrónico es un conjunto de circuitos que interactúan entre sí para obtener un resultado. Una forma de entender los sistemas electrónicos consiste en dividirlos en las siguientes partes: Entradas o Inputs – Sensores (o transductores) electrónicos o mecánicos que toman las señales (en forma de temperatura, presión, etc.) del mundo físico y las convierten en señales de corriente o voltaje. Ejemplo: El termopar, la fotoresistencia para medir la intensidad de la luz, etc. Circuitos de procesamiento de señales – Consisten en artefactos electrónicos conectados juntos para manipular, interpretar y transformar las señales de voltaje y corriente provenientes de los transductores. Salidas u Outputs – Actuadores u otros dispositivos (también transductores) que convierten las señales de corriente o voltaje en señales físicamente útiles. Por ejemplo: un display que nos registre la temperatura, un foco o sistema de luces que se encienda automáticamente cuando esté oscureciendo. Básicamente son tres etapas: La primera (transductor), la segunda (circuito procesador) y la tercera (circuito actuador). Como ejemplo supongamos un televisor. Su entrada es una señal de difusión recibida por una antena o por un cable. Los circuitos de procesado de señales del interior del televisor extraen la información sobre el brillo, el color y el sonido de esta señal. Los dispositivos de salida son un tubo de rayos catódicos o monitor LCD que convierte las señales electrónicas en imágenes visibles en una pantalla y unos altavoces. Otro ejemplo puede ser el de un circuito que ponga de manifiesto la temperatura de un proceso, el transductor puede ser un termopar, el circuito de procesamiento se encarga de convertir la señal de entrada en un nivel de voltaje (comparador de voltaje o de ventana) en un nivel apropiado y mandar la información decodificándola a un display donde nos dé la temperatura real y si esta excede un límite preprogramado activar un sistema de alarma (circuito actuador) para tomar las medida pertinentes. Señales eléctricas Es la representación de un fenómeno físico o estado material a través de una relación establecida; las entradas y salidas de un sistema electrónico serán señales variables entre sí. En electrónica se trabaja con variables que toman la forma de tensión o corriente estas se pueden denominar señales. Las señales primordialmente pueden ser de dos tipos: Variable analógica–Son aquellas que pueden tomar un número infinito de valores comprendidos entre dos límites. La mayoría de los fenómenos de la vida real dan señales de este tipo (presión, temperatura, etc.). Variable digital– También llamadas variables discretas, entendiéndose por estas, las variables que pueden tomar un número finito de valores. Por ser de fácil realización los componentes físicos con dos estados diferenciados, es este el número de valores utilizado para dichas variables, que por lo tanto son binarias. Siendo estas variables más fáciles de tratar (en lógica serían los valores V y F) son los que generalmente se utilizan para relacionar varias variables entre sí y con sus estados anteriores. Voltaje Es la diferencia de potencial generada entre los extremos de un componente o dispositivo eléctrico. También podemos decir que es la energía capaz de poner en movimiento los electrones libres de un conductor o semiconductor. La unidad de este parámetro es el voltio (V). Existen dos tipos de tensión: la continua y la alterna. Voltaje continuo (VDC)–Es aquel que tiene una polaridad definida, como la que proporcionan las pilas, baterías y fuentes de alimentación. Voltaje alterno (VAC)–Es aquel cuya polaridad va cambiando o alternando con el transcurso del tiempo. Las fuentes de voltaje alterno más comunes son los generadores y las redes de energía doméstica. Corriente eléctrica Es el flujo de electrones libres a través de un conductor o semiconductor en un sentido. La unidad de medida de este parámetro es el amperio (A). Al igual que existen voltajes continuas o alternas, las corrientes también pueden ser continuas o alternas, dependiendo del tipo de voltaje que se utiliza para generar estos flujos de corriente. Resistencia Es la propiedad física mediante la cual los materiales tienden a oponerse al flujo de la corriente. La unidad de este parámetro es el ohmio (Ω). La propiedad inversa es la conductancia eléctrica. Circuitos electrónicos Se denomina circuito electrónico a una serie de elementos o componentes eléctricos (tales como resistencias, inductancias, condensadores y fuentes) o electrónicos, conectados eléctricamente entre sí con el propósito de generar, transportar o modificar señales electrónicas. Los circuitos electrónicos o eléctricos se pueden clasificar de varias maneras: Circuitos analógicos La mayoría de los aparatos electrónicos de analógica, como los receptores de radio, se construyen a partir de combinaciones de unos pocos tipos de circuitos básicos. Los circuitos analógicos utilizan un rango continuo de voltaje o corriente en lugar de niveles discretos como en los circuitos digitales. El número de circuitos analógicos diferentes que se han ideado hasta ahora es enorme, sobre todo porque un "circuito" puede definirse como cualquier cosa, desde un solo componente hasta sistemas que contienen miles de componentes. Los circuitos analógicos se denominan a veces circuitos lineales aunque se utilizan muchos efectos no lineales en los circuitos analógicos, como mezcladores, moduladores, etc. Algunos buenos ejemplos de circuitos analógicos son los amplificadores de tubos de vacío y transistores, los amplificadores operacionales y los osciladores. Rara vez se encuentran circuitos modernos que sean totalmente analógicos. Hoy en día, los circuitos analógicos pueden utilizar técnicas digitales o incluso de microprocesador para mejorar su rendimiento. Este tipo de circuito suele denominarse "de señal mixta" en lugar de analógico o digital. A veces puede resultar difícil diferenciar los circuitos analógicos de los digitales, ya que tienen elementos de funcionamiento tanto lineal como no lineal. Un ejemplo es el comparador, que recibe un rango continuo de tensión pero solo emite uno de los dos niveles de un circuito digital. Del mismo modo, un amplificador de transistor sobrecargado puede adoptar las características de un interruptor controlado que tiene esencialmente dos niveles de salida. De hecho, muchos circuitos digitales se implementan como variaciones de circuitos analógicos similares a este ejemplo... después de todo, todos los aspectos del mundo físico real son esencialmente analógicos, por lo que los efectos digitales solo se realizan restringiendo el comportamiento analógico. Circuitos digitales Los circuitos digitales son circuitos eléctricos basados en un número de niveles de tensión discretos. Los circuitos digitales son la representación física más común del álgebra booleana, y son la base de todos los ordenadores digitales. Para la mayoría de los ingenieros, los términos "circuito digital", "sistema digital" y "lógica" son intercambiables en el contexto de los circuitos digitales. La mayoría de los circuitos digitales utilizan un sistema binario con dos niveles de tensión denominados "0" y "1". A menudo, el "0" lógico es un voltaje más bajo y se denomina "Bajo", mientras que el "1" lógico se denomina "Alto". Sin embargo, algunos sistemas utilizan la definición inversa ("0" es "Alto") o se basan en la corriente. A menudo, el diseñador de la lógica puede invertir estas definiciones de un circuito a otro, según le convenga para facilitar su diseño. La definición de los niveles como "0" o "1" es arbitraria. La lógica ternaria (con tres estados) (con tres estados) se ha estudiado la lógica, y se han hecho algunos prototipos de ordenadores. Los ordenadores, los relojes electrónicos y los controladores lógicos programables, utilizados para controlar los procesos industriales, están construidos con circuitos digitales. Los Procesadores de señales digitales son otro ejemplo. Disipación de calor y gestión térmica El calor generado por los circuitos electrónicos debe disiparse para evitar fallos inmediatos y mejorar la fiabilidad a largo plazo. La disipación del calor se consigue principalmente por conducción/convección pasiva. Los medios para lograr una mayor disipación incluyen disipador de calor y ventiladores para la refrigeración por aire, y otras formas de refrigeración de ordenadores como la refrigeración líquida. Estas técnicas utilizan la convección, la conducción y la radiación de la energía térmica. Ruido El ruido electrónico se define como «las perturbaciones no deseadas superpuestas a una señal útil que tienden a oscurecer su contenido informativo». El ruido no es lo mismo que la distorsión de la señal causada por un circuito. El ruido está asociado a todos los circuitos electrónicos. El ruido puede ser generado electromagnéticamente o térmicamente, lo que puede disminuirse bajando la temperatura de funcionamiento del circuito. Otros tipos de ruido, como el ruido de disparo no pueden eliminarse, ya que se deben a limitaciones en las propiedades físicas. Teoría de la electrónica Los métodos matemáticos son parte integral del estudio de la electrónica. Para llegar a dominar la electrónica es necesario también dominar las matemáticas del análisis de circuitos. El análisis de circuitos es el estudio de los métodos de resolución de sistemas generalmente lineales para variables desconocidas, como el voltaje en un determinado nodo o la corriente a través de un determinado camino de un red. Una herramienta analítica habitual para ello es el simulador de circuitos SPICE. También es importante para la electrónica el estudio y la comprensión de la teoría del campo electromagnético. Laboratorio de electrónica Debido a la compleja naturaleza de la teoría de la electrónica, la experimentación en el laboratorio es una parte importante del desarrollo de dispositivos electrónicos. Estos experimentos se utilizan para probar o verificar el diseño del ingeniero y detectar errores. Históricamente, los laboratorios de electrónica han consistido en dispositivos y equipos electrónicos ubicados en un espacio físico, aunque en años más recientes la tendencia ha sido hacia el software de simulación de laboratorios de electrónica, como CircuitLogix, Multisim y PSpice. Diseño asistido por ordenador (CAD) Los ingenieros electrónicos actuales tienen la capacidad de diseñar circuitos utilizando bloques de construcción prefabricados como fuentes de alimentación, semiconductores (es decir, dispositivos semiconductores, como transistores) y circuitos integrados. Los programas de software de automatización del diseño electrónico incluyen programas de captura de esquemas y programas de diseño de circuitos impresos. Los nombres más populares en el mundo del software EDA son NI Multisim, Cadence (ORCAD), EAGLE PCB y Schematic, Mentor (PADS PCB y LOGIC Schematic), Altium (Protel), LabCentre Electronics (Proteus), gEDA, KiCad y muchos otros. Métodos de embalaje A lo largo de los años se han utilizado muchos métodos diferentes para conectar los componentes. Por ejemplo, la electrónica primitiva utilizaba a menudo cableado punto a punto con componentes fijados a tableros de madera para construir circuitos. Otros métodos utilizados eran el Cordwood construction y el wire wrap. En la actualidad, la mayoría de los aparatos electrónicos utilizan placas de circuito impreso fabricadas con materiales como FR4, o el más barato (y menos resistente) papel aglomerado con resina sintética (SRBP, también conocido como Paxoline/Paxolin (marcas comerciales) y FR2), caracterizado por su color marrón. La preocupación por la salud y el medio ambiente en relación con el ensamblaje de productos electrónicos ha aumentado en los últimos años, especialmente en el caso de los productos destinados a la Unión Europea. Diseño de sistemas electrónicos El diseño de sistemas electrónicos se ocupa de las cuestiones de diseño multidisciplinar de dispositivos y sistemas electrónicos complejos, como los teléfonos móviles y los ordenadores. El tema abarca un amplio espectro, desde el diseño y el desarrollo de un sistema electrónico hasta el aseguramiento de su correcto funcionamiento, vida útil y reciclaje. El diseño de sistemas electrónicos es, por tanto, el proceso de definición y desarrollo de dispositivos electrónicos complejos para satisfacer los requisitos especificados del usuario. Componentes Para la síntesis de circuitos electrónicos se utilizan componentes electrónicos e instrumentos electrónicos. A continuación se presenta una lista de los componentes e instrumentos más importantes en la electrónica, seguidos de su uso más común: Altavoz: reproducción de sonido. Cable: conducción de la electricidad. Conmutador: reencaminar una entrada a una salida elegida entre dos o más. Interruptor: apertura o cierre de circuitos, manualmente. Pila o batería: acumulador de energía eléctrica. Transductor: transformación de una magnitud física en una eléctrica. Visualizador: muestra de datos o imágenes. Dispositivos analógicos (algunos ejemplos) Amplificador operacional: amplificación, regulación, conversión de señal, conmutación. Capacitor: almacenamiento de energía, filtrado, adaptación impedancias. Diodo: rectificación de señales, regulación, multiplicador de tensión. Diodo Zener: regulación de tensiones. Inductor: adaptación de impedancias. Potenciómetro: variación de la corriente eléctrica o la tensión. Relé: apertura o cierre de circuitos mediante señales de control. Resistor: división de intensidad o tensión, limitación de intensidad. Transistor: amplificación, conmutación. Dispositivos digitales Biestable: control de sistemas secuenciales. Memoria: almacenamiento digital de datos. Microcontrolador: control de sistemas digitales. Compuerta lógica: control de sistemas combinacionales. Dispositivos de potencia DIAC: control de potencia. Fusible: protección contra sobre-corrientes. Tiristor: interruptor semiconductor para el control de potencia. Transformador: elevar o disminuir voltajes, corrientes, e impedancia aparente. Rectificador controlado de silicio (SCR). Triac: control de potencia. Varistor: protección contra sobre-voltajes. Equipos de medición Los equipos de medición de electrónica se utilizan para crear estímulos y medir el comportamiento de los dispositivos bajo prueba (DUT por sus siglas en inglés). La medición de magnitudes mecánicas, térmicas, eléctricas y químicas se realiza empleando dispositivos denominados sensores y transductores. El sensor es sensible a los cambios de la magnitud a medir, como una temperatura, una posición o una concentración química. El transductor convierte estas mediciones en señales eléctricas, que pueden alimentar a instrumentos de lectura, registro o control de las magnitudes medidas. Los sensores y transductores pueden funcionar en ubicaciones alejadas del observador, así como en entornos inadecuados o impracticables para los seres humanos. Algunos dispositivos actúan de forma simultánea como sensor y transductor. Un termopar consta de dos uniones de diferentes metales que generan una pequeña tensión que depende del diferencial término entre las uniones. El termistor es una resistencia especial, cuyo valor de resistencia varía según la temperatura. Un reóstato variable puede convertir el movimiento mecánico en señal eléctrica. Para medir distancias se emplean condensadores de diseño especial, y para detectar la luz se utilizan fotocélulas. Para medir velocidades, aceleración o flujos de líquidos se recurre a otro tipo de dispositivos. En la mayoría de los casos, la señal eléctrica es débil y debe ser amplificada por un circuito electrónico. A continuación se presenta una lista de los equipos de medición más importantes: Galvanómetro: mide el cambio de una determinada magnitud, como la intensidad de corriente o tensión (o voltaje). Se utiliza en la construcción de Amperímetros y Voltímetros analógicos. Amperímetro y pinza amperimétrica: miden la intensidad de corriente eléctrica. Óhmetro o puente de Wheatstone: miden la resistencia eléctrica. Cuando la resistencia eléctrica es muy alta (sobre los 1 MΩ) se utiliza un megóhmetro o medidor de aislamiento. Voltímetro: mide la tensión. Multímetro o polímetro: mide las tres magnitudes citadas arriba, además de continuidad eléctrica y el valor B de los transistores (tanto PNP como NPN). Vatímetro: mide la potencia eléctrica. Está compuesto de un amperímetro y un voltímetro. Dependiendo de la configuración de conexión puede entregar distintas mediciones de potencia eléctrica, como la potencia activa o la potencia reactiva. Osciloscopio: miden el cambio de la corriente y el voltaje respecto al tiempo. Analizador lógico: prueba circuitos digitales. Analizador de espectro: mide la energía espectral de las señales. Analizador vectorial de señales: como el analizador espectral pero con más funciones de demodulación digital. Electrómetro: mide la carga eléctrica. Frecuencímetro o contador de frecuencia: mide la frecuencia. Reflectómetro de dominio de tiempo (TDR): prueba la integridad de cables largos. Capacímetro: mide la capacidad eléctrica o capacitancia. Contador eléctrico: mide la energía eléctrica. Al igual que el vatímetro, puede configurarse para medir energía activa (consumida) o energía reactiva. Teoría de la electrónica Circuitos digitales Electrónica analógica Véase también Referencias Enlaces externos Asociación de Robótica y Domótica de España A.R.D.E. IEEE. Instituto de ingenieros eléctricos y electrónicos. Foro de Robótica y Electrónica en Español. Ingeniería eléctrica Ingeniería electrónica
513_0
Ernesto Sabato
Ernesto Sabato (; Rojas, 24 de junio de 1911-Santos Lugares, 30 de abril de 2011) fue un escritor, pintor y físico argentino. Su obra narrativa consiste en tres novelas: El túnel, Sobre héroes y tumbas y Abaddón el exterminador. También se destacó como ensayista en libros como Uno y el Universo, Hombres y engranajes, El escritor y sus fantasmas y Apologías y rechazos, en los que reflexiona sobre la condición humana, la vocación de la escritura o los problemas culturales del siglo . Fue el segundo argentino galardonado con el Premio Miguel de Cervantes (1984) luego de Jorge Luis Borges (1979). Su longeva existencia lo llevó a ser un autor muy presente durante el siglo pasado y también durante la primera década del presente. Aunque se preparó para dedicarse a la física y a la investigación en este campo, su acercamiento al movimiento surrealista, especialmente a algunos escritores y artistas de esta corriente, torció de alguna manera su destino y terminó por darle rienda suelta a su inquietud como autor. Su visión existencialista —reflejada en las tramas tenebrosas de sus novelas pobladas de personajes extraviados de sus valores morales—, su manera de exponer ideas y conceptos, su facilidad retórica y la sapiencia a la hora de introducirse en la psicología de los individuos, lo erigieron en una de las grandes plumas de su tiempo y de su país. En política, fue presidente de la Comisión Nacional sobre la Desaparición de Personas (CONADEP) y publicó un informe conocido por la famosa expresión Nunca más (también llamado Informe Sabato). La idea era juzgar a las Juntas militares de la dictadura cívico-militar que gobernó el país entre 1976 y 1983, el terrorismo de estado ocurrido entre los años 1970's y 1980's y la desaparición de personas ocurrida durante esa época. También se llegó a detener a José Lopéz Rega, excomisario general de la Policía Federal Argentina y líder del grupo terrorista parapolicial Triple A. Biografía Primeros años Ernesto Roque Sabato nació el 24 de junio de 1911 en la ciudad de Rojas (provincia de Buenos Aires), hijo de Francesco María Sabato y Giovannina Ferraro, inmigrantes italianos procedentes de Calabria. El padre era de Fuscaldo y la madre de San Martino di Finita, comunidad de origen arbëreshë (albaneses de Italia). Su familia pertenecía a la clase media y el propio Sabato la definió como «clásica y jerárquica». Sobre ellos declaró a uno de sus biógrafos: «Mi padre era severísimo y yo le tenía terror, mi madre me escondía debajo de la cama matrimonial para evitarme un castigo». Fue el décimo de once hijos y nació poco tiempo después de la muerte de su noveno hermano, Ernesto José, Ernestito, por lo que él lleva su nombre. Su hermano Arturo fue director de YPF durante el gobierno de Arturo Frondizi y Juan llegó a ser intendente de Rojas. En 1924 egresó de la escuela primaria de Rojas y viajó a La Plata donde cursó sus estudios secundarios en el Colegio Nacional de La Plata, donde conoció al profesor Pedro Henríquez Ureña, a quien luego citaría como inspiración para su carrera literaria, y a Ezequiel Martínez Estrada. En 1929 ingresó a la Facultad de Ciencias Físico-Matemáticas de la Universidad Nacional de La Plata. Fue un militante del movimiento de Reforma Universitaria, fundando el Grupo Insurrexit en 1933, de tendencia comunista, junto con Héctor P. Agosti, Ángel Hurtado de Mendoza y Paulino González Alberdi, entre otros. En 1933 fue elegido secretario general de la Federación Juvenil Comunista. Y en un curso sobre marxismo conoció a Matilde Kusminsky Richter, una estudiante de diecisiete años, la cual abandonó la casa de sus padres para ir a vivir con él. En 1934 comenzó a tener dudas sobre el comunismo y sobre la dictadura de Iósif Stalin. El partido, que advirtió este cambio, decidió enviarlo por dos años a las Escuelas Leninistas de Moscú, en donde, según las palabras de Sabato: Antes de Moscú, viajó a Bruselas como delegado del Partido Comunista de la Argentina al Congreso contra el Fascismo y la Guerra. Una vez allí, temiendo que al ir a Moscú no regresaría, abandonó el Congreso y huyó a París. Es ahí donde escribió su primera novela llamada La fuente muda. Regresó a Buenos Aires en 1936 y contrajo matrimonio por civil con Matilde Kusminsky Richter. Sus años como investigador En 1937 obtuvo el Doctorado en Ciencias Físicas y Matemáticas en la Universidad Nacional de La Plata. Con el apoyo de Bernardo Houssay, le fue concedida una beca anual para realizar trabajos de investigación sobre radiaciones atómicas en el Laboratorio Curie en París. El 25 de mayo de 1938 nació su primer hijo, Jorge Federico. En París entró en contacto con el movimiento surrealista y con la obra de Óscar Domínguez, Benjamín Péret, Roberto Matta Echaurren, Esteban Francés, entre otros. Esto marcaría una profunda influencia en sus futuras obras. En 1939 fue transferido al Instituto Tecnológico de Massachusetts (MIT), por lo que abandonó París antes del estallido de la Segunda Guerra Mundial. Regresó a la Argentina en 1940 con la decisión de abandonar la ciencia, pero para cumplir con quienes le habían otorgado la beca ejerció como profesor en la Universidad de La Plata, en la cátedra de ingreso a Ingeniería y en un postgrado sobre relatividad y mecánica cuántica. En una entrevista realizada en 1977 para Televisión Española afirma: En 1943, debido a una crisis existencial, decidió alejarse de forma definitiva del área científica para dedicarse de lleno a la literatura y la pintura. Él definió a la ciencia como amoral porque «llevaría al mundo hacia el desastre». Se instaló entonces en Pantanillo, en la provincia de Córdoba, para residir en un rancho sin agua ni luz pero entregado a la escritura. A fines de la Segunda Guerra Mundial, en 1945, nació su segundo hijo, Mario Sabato, quien de adulto sería un conocido director de cine. Ese mismo año se instaló con su familia en Santos Lugares, desde donde desarrolló toda su carrera de escritor. Carrera literaria En 1941 apareció su primer trabajo literario, un artículo sobre La invención de Morel de Adolfo Bioy Casares, en la revista Teseo de La Plata. También publicó una colaboración en la revista Sur de Victoria Ocampo, por intervención de Pedro Henríquez Ureña. En 1942 continuó colaborando en aquella publicación con reseñas de libros, se encargó de la sección Calendario y participó del «Desagravio a Borges» en el n.º 94 de Sur. Publicó artículos en el diario La Nación y se presentó su traducción de Nacimiento y muerte del sol de George Gamow. Al año siguiente publicaría la traducción de El ABC de la relatividad de Bertrand Russell. En 1945 publicó su primer libro, Uno y el Universo, una serie de artículos filosóficos en los que criticaba la aparente neutralidad moral de la ciencia y alerta sobre los procesos de deshumanización en las sociedades tecnológicas. Con el tiempo avanzaría hacia posturas libertarias y humanistas. Por esa obra recibió en el mismo año el primer premio de prosa de la Municipalidad de la Ciudad de Buenos Aires —concedido a partir del dictamen de un jurado conformado por los escritores Francisco Luis Bernárdez, Vicente Barbieri, Leónidas Barletta, Ricardo Molinari y Adolfo Bioy Casares— y la faja de honor de la Sociedad Argentina de Escritores. En 1947, con graves dificultades económicas, Julián Huxley intervino para que lo nombren como director de la UNESCO pero renunció a los dos meses. En 1948, después de haber llevado los manuscritos de su novela a las editoriales de Buenos Aires y de ser rechazado por todas, publicó en la revista Sur El túnel, una novela psicológica narrada en primera persona. Enmarcada en el existencialismo, una corriente filosófica de enorme difusión en la época de posguerra, El túnel recibió críticas entusiastas de Albert Camus, quien lo hizo traducir por Gallimard al francés. Aparte de este, la novela ha sido traducida a más de diez idiomas. En 1951 se publicó el ensayo Hombres y engranajes bajo la editorial Emecé, y un capítulo sobre Física en la Enciclopedia Práctica Jackson. Al año siguiente se estrenó en la Argentina la película de El túnel, una producción de Argentina Sono Film, dirigida por León Klimovsky. En 1953, nuevamente bajo la editorial Emecé, editó el ensayo Heterodoxia. En 1955 fue nombrado interventor de la revista Mundo Argentino por el gobierno de facto impuesto por la Revolución Libertadora, cargo al que renunció al año siguiente por haber denunciado la aplicación de torturas a militantes obreros y los fusilamientos de junio de 1956. Ese mismo año presentó El otro rostro del peronismo: Carta abierta a Mario Amadeo, en donde, sin abdicar de sus antipatías hacia la figura del expresidente Juan Domingo Perón, efectúa la defensa de Evita y sus seguidores; posición que le creó numerosas críticas de los sectores intelectuales argentinos, que eran mayoritariamente opositores al gobierno derrocado. En 1958, durante la presidencia de Arturo Frondizi, Sabato fue designado director de Relaciones Culturales en el Ministerio de Relaciones Exteriores, puesto al que también renunció al año siguiente por discrepancias con el gobierno. En 1961 publicó Sobre héroes y tumbas, que ha sido considerada como una de las mejores novelas argentinas del . Se trata de una novela que narra la historia de una familia aristocrática argentina en decadencia, intercalada con relato intimista sobre la muerte del general Juan Lavalle, héroe de la guerra de la Independencia Argentina, y con los desgarramientos de la historia argentina, como las guerras civiles del hasta 1955. Hacia 1967 contaba con más de 120 000 ejemplares vendidos. Es emblemática la anécdota de este libro, que según el propio Sabato, estaba destinado a la destrucción por el fuego como tantas otras obras suyas que no vieron la luz pública. Su supervivencia, relató el propio autor en una entrevista conducida por el periodista Joaquín Soler Serrano en un capítulo de su programa A fondo de 1977, se debe a la intervención de su esposa Matilde que lo convenció de publicarlo en vez de destruirlo. En el año 1964 había recibido el título de Chevalier des Arts et des Lettres, orden instituida por André Malraux. La novela también incluye el Informe sobre ciegos, que a veces se ha publicado como pieza separada, y sobre el cual su hijo, Mario Sabato realizó una película. En 1965 se lanzó el disco Romance de la muerte de Juan Lavalle; cantar de gesta, con textos recitados de Sobre héroes y tumbas y canciones con letra de Sabato y música de Eduardo Falú. Otro interesado en adaptar la novela fue Astor Piazzolla, quien quiso componer una ópera, proyecto que finalmente quedó en una "Introducción", registrada en el disco Tango contemporáneo, nuevamente con recitados a cargo de Sabato. En ese mismo año en Milán, se tradujo al italiano el libro. En 1966, la editorial Losada ofreció Obras de ficción, con prólogo de Harley D. Oberhelman. En 1967, Sobre héroes y tumbas se tradujo al francés como Alexandra, y también al alemán, con introducción de Witold Gombrowicz. Continuamente, presentó Pedro Henríquez Ureña: ensayo y antología, homenaje a su maestro y amigo. En 1968 editó, en la Editorial Universitaria de Santiago de Chile, Tres aproximaciones a la literatura de nuestro tiempo, mientras que en Copenhague se tradujo Sobre héroes y tumbas al danés. En 1971 publicó Claves políticas que recoge conversaciones mantenidas con el grupo de El escarabajo de oro y cartas entre Sabato y Ernesto Che Guevara; comenzó a colaborar con el periódico La Opinión. En 1973, organizó sus ensayos sobre el tema La cultura en la encrucijada nacional y obtuvo el premio del Institut fur Auslandsbeziehungen de Stuttgart (República Federal de Alemania). Su siguiente novela, Abaddón el exterminador, se publicó en 1974; de corte autobiográfico con una estructura narrativa fragmentaria y de argumento apocalíptico en el cual Sabato se incluye a sí mismo como personaje principal y retoma a algunos de los personajes ya aparecidos en Sobre héroes y tumbas. En aquel año recibió el Gran Premio de la Sociedad Argentina de Escritores (SADE). En 1975, Sabato obtuvo el premio de Consagración Nacional de la Argentina. En 1976, se le concedió el premio a la Mejor Novela Extranjera en París (Francia) por Abaddón el exterminador, mientras que en Italia recibió el premio Medici al mejor libro extranjero en 1977 por la misma obra. En 1978, le otorgaron la Gran Cruz al mérito civil en España. En 1979 fue distinguido en Francia como comandante de la Legión de Honor. Para la década de 1970, Sabato sentía que, como escritor, había dicho «todo lo que tenía que decir sobre los grandes temas de la condición humana: la muerte, el sentido de la existencia, la soledad, la esperanza y la existencia de Dios».En 1983, a modo de epitafio, dijo: «Soy un simple escritor que ha vivido atormentado por los problemas de su tiempo, en particular por los de su nación. No tengo otro título». El retiro de la actividad literaria coincidió con el agravamiento de sus problemas de la vista, por lo que dejó de leer y escribir por prescripción médica, para dedicarse a la pintura. A pesar de esto, en años posteriores continuó publicando esporádicamente. Labor en la Conadep y Premio Cervantes Por solicitud del presidente Raúl Alfonsín, presidió entre los años de 1983 y 1984 la CONADEP (Comisión Nacional sobre la Desaparición de Personas), cuya investigación, plasmada en el libro Nunca más, abrió las puertas para el juicio a las juntas militares de la dictadura militar en 1985. En 1984 recibió el Premio Miguel de Cervantes, máximo galardón literario concedido a los escritores de habla hispana. Fue el segundo escritor argentino en recibir este premio, luego de Jorge Luis Borges en 1979. Se conserva su discurso en ocasión de la recepción del premio citado. También recibió el Premio Konex - Diploma al Mérito en 1984 como uno de los cinco mejores novelistas con obra publicada antes de 1950 en la historia en la Argentina, otorgado por la Fundación Konex. Además la Municipalidad de la Ciudad de Buenos Aires lo nombró Ciudadano Ilustre, recibió la Orden de Boyacá en Colombia y la OEA le otorgó el premio Gabriela Mistral. Dos años más tarde, en 1986, se le hizo entrega de la Gran Cruz de Oficial de la República Federal de Alemania. En 1989 se le concedió el premio Jerusalén en Israel y fue nombrado Doctor honoris causa por la Universidad de Murcia (España); en 1991 por la Universidad de Rosario y la Universidad de San Luis (de la Argentina), en 1995 por la Universidad de Turín (Italia) y en 1996 por la Universidad Nacional de Río Cuarto. Últimos años El 21 de diciembre de 1990, en su casa de Santos Lugares se casó «por iglesia» con Matilde Kusminsky Richter. La ceremonia fue oficiada por los obispos Justo Oscar Laguna y Jorge Casaretto. En 1992 fue invitado al programa Fax conducido por Nicolás Repetto emitido por Canal 13. En ese reportaje contó que cuando jugaba al fútbol de chico era muy violento. Y comentó sobre este deporte: En 1995 murió su hijo Jorge Federico en un accidente automovilístico. En 1997 recibió el XI Premio Internacional Menéndez Pelayo por parte de la Universidad homónima. El 30 de septiembre de 1998 falleció su esposa, Matilde Kusminsky Richter, y publicó sus memorias bajo el título de Antes del fin y el 4 de junio de 2000 presentó La resistencia en la página de Internet del diario Clarín, convirtiéndose de esta manera en el primer escritor de lengua española en publicar un libro gratuitamente en Internet antes que en papel. La edición en papel fue lanzada el 16 de junio. En 2002 se le concedió la Medalla de Oro del Círculo de Bellas Artes de Madrid y la Medalla de Honor de la Universidad Carlos III en reconocimiento a sus méritos literarios, como así también el Premio Extremadura a la Creación a la mejor Trayectoria Literaria de Autor Iberoamericano (Consejería de Cultura de la Junta de Extremadura). En 2004, en una emotiva ceremonia, recibió un homenaje por parte del III Congreso Internacional de la Lengua Española en presencia de Cristina Fernández de Kirchner y José Saramago. Después, la Real Academia Española lo homenajeó también y en 2005 fue distinguido en el Colegio Nacional de la Plata. El 11 de febrero de 2009 la SGAE lo propuso por tercera vez ante la Academia Sueca como candidato al Premio Nobel de Literatura de 2009 junto con los escritores españoles Francisco Ayala y Miguel Delibes. Fallecimiento Falleció en su hogar en Santos Lugares durante la madrugada del 30 de abril de 2011, 55 días antes de cumplir 100 años, a causa de una neumonía derivada de una bronquitis que lo aquejaba desde hacía algunos meses (también padecía serios problemas de visión), según informaron sus allegados. El velatorio se realizó a partir de las 17 horas del mismo día en el club Defensores de Santos Lugares, enfrente de su casa de Saverio Langeri 3135. A pesar de su última petición de que sus restos fueran inhumados en el jardín de su vivienda y que no se enviaran ofrendas florares, fue enterrado en el cementerio Jardín de Paz, en Pilar, junto a su esposa y su hijo mayor, luego de un oficio religioso llevado a cabo por monseñor Jorge Casaretto. A su funeral asistieron personalidades como Magdalena Ruiz Guiñazú, Francisco de Narváez, Graciela Fernández Meijide, Juan Carr, Ricardo Alfonsín, entre otros. Por su parte, la presidenta Cristina Fernández de Kirchner envió condolencias a la familia y una ofrenda floral. Su deceso fue confirmado por su colaboradora Elvira González Fraga, quien declaró: «Estaba sufriendo hace tiempo, pero todavía pasaba algunos momentos buenos, principalmente cuando escuchaba música.» Su muerte coincidió con la celebración de la ciudad de Buenos Aires como Capital Mundial del Libro 2011, y con el desarrollo de la 37.ª edición de la Feria Internacional del Libro de Buenos Aires. Un día después recibió un homenaje conjunto a su persona y a Adolfo Bioy Casares en la sala Jorge Luis Borges, por parte del Instituto Cultural en la Feria del Libro llevada a cabo en Buenos Aires, y los preparativos para las celebraciones del centenario de su natalicio ya estaban en marcha. Homenajes Los medios de prensa definieron de inmediato el fallecimiento de Sabato como el de una figura que sobrepasó la literatura para convertirse en ícono del regreso democrático en la Argentina. En su portada digital del 30 de abril, el periódico El País (Madrid) lo llamó «último clásico de las letras argentinas» y el periódico El Mundo (Madrid) lo tituló «el último superviviente de los escritores con mayúscula de la Argentina». Ricardo Gil Lavedra ―quien integró el tribunal que juzgó a las juntas militares― dijo pocas horas después de la muerte de Sabato: «Fue una personalidad emblemática». León Arslanian aseguró: «Fue muy importante el aporte que hizo la CONADEP y su influencia. Tiempo después, tuvimos la oportunidad de dialogar, su visión siempre fue trágica, reproducía el horror que de algún modo a él le tocaba comentar». En las redes sociales se reiteraron rápidamente los mensajes relacionados con vivencias, recuerdos y frases del escritor. La más registrada y reproducida pocos minutos después de su muerte fue su oración: «La vida es tan corta y el oficio de vivir tan difícil, que cuando uno empieza a aprenderlo, ya hay que morirse». El 24 de junio de 2011, conmemorándose el natalicio del escritor, la ciudad de Buenos Aires lo homenajeó con una serie de actividades organizadas por el Ministerio de Cultura porteño y se leyeron fragmentos de sus libros en diversas entidades y en la Torre de Babel (de Marta Minujín); además su hijo, Mario Sabato, anunció la remodelación de la residencia de su padre para posteriormente ser convertida en un museo, que tuvo su inauguración en 2012. Como homenaje, el Ministerio de Cultura porteño colocó una gran foto del escritor, reproducida sobre una tela de 88 metros de ancho por 34 metros de alto, sobre la fachada del Edificio Del Plata en Cerrito 211. El 19 de septiembre de 2014, después de tres años de demoras por falta de fondos, la familia Sabato finalmente reabrió la casa del escritor como un «museo vivo» dedicado a recordar su vida y su obra. Las visitas son los sábados a las 15 horas, y están a cargo de los nietos del escritor y del mismo Sabato, que aparece en pantallas colocadas en las distintas habitaciones relatando anécdotas y describiendo a cada una. Para reservar, escribir al 11 36149927 En 2016, el Concejo Deliberante de Tres de Febrero aprobó el cambio de nominación de la calle Saverio Langeri, donde se ubica la casa museo, por el de Ernesto Sabato. Activismo e ideología política En su juventud, Sabato fue un activista del Partido Comunista, en donde llegó a secretario general de la Federación Juvenil Comunista. En este sentido, según narra en su entrevista realizada por el periodista español Joaquín Soler Serrano, en el programa televisivo A fondo, de 1977, se desilusionó, a causa de las políticas de Stalin, mientras se encontraba representado a la juventud comunista de Argentina en un congreso de jóvenes comunistas en París, en los años previos a la Segunda Guerra Mundial. Posteriormente se iba a alejar del comunismo marxista, desilusionado por el rumbo que había tomado la dictadura de Stalin en la Unión Soviética. Detractor del peronismo, Sabato fue uno de los primeros en aportar una interpretación al gobierno del General Juan Domingo Perón tras el derrocamiento de su segundo gobierno, el cual apareció publicado bajo el título de El otro rostro del peronismo en 1956. En este ensayo, Sabato criticó duramente al peronismo: A pesar de sus críticas al movimiento peronista y a Juan Domingo Perón, Sabato alabó a Eva Duarte, declarando que ella fue la «auténtica revolucionaria». Posteriormente, Sabato no quiso reeditar el El otro rostro del peronismo; y para 1987, cuando se publicaron sus Obras completas, se aseguró en el prefacio de que este ensayo sería publicado en un nuevo tomo de escritos políticos, que hasta el día de hoy no fue editado. Respecto a la denominada Revolución Libertadora que derrocó a Perón en el año 1955, Sabato expresó en correspondencia que intercambió con Ernesto Che Guevara: Cuando el general Onganía derrocó al presidente Illia, Sabato aplaudió diciendo: Esta declaración no fue poca cosa viniendo de un intelectual reconocido, ya que la dictadura de Onganía fue particularmente feroz contra los escritores y científicos, dejando para la memoria de los argentinos la Noche de los Bastones Largos, un ataque a la Universidad de Buenos Aires que obligó a exiliarse a decenas de los mejores académicos de la Argentina. Sabato no dijo nada de esto, a pesar de que tenía libre acceso a los diarios y micrófonos. Durante el gobierno de María Estela Martínez de Perón, Sabato se sentía amenazado por la Triple A. Sin embargo, no se dejó intimidar por ello y publicó el ensayo Nuestro tiempo del desprecio, además de diversos artículos periodísticos lanzados en el exterior en los que denunciaba la represión militar. De acuerdo a Ángela Dellepiane en su investigación para la UNESCO, el diario La Razón del 20 de mayo de 1976 y La Opinión del 21 de mayo ―aún dirigido por Jacobo Timerman― dan el testimonio directo del escritor sobre lo ocurrido. «Hay otra cosa que me angustia y que me sentí en la obligación de plantear: la caza de brujas». En relación con los casos de Antonio Di Benedetto y el arquitecto Jorge Hardoy, Sabato expresó: «...di nombres de personas que honran al país y que han sufrido expulsión de sus lugares de trabajo y hasta detención». Dictadura El 19 de mayo de 1976 el dictador Jorge Rafael Videla protagonizó un almuerzo con un grupo de intelectuales argentinos, entre los que se contaban Ernesto Sabato, Jorge Luis Borges, Horacio Esteban Ratti y el padre Leonardo Castellani. De todos, solamente el padre Castellani hizo referencia al dictador de la desaparición de Haroldo Conti y pidió por su situación. Luego de la comida, Sabato declaró a la prensa: El escritor Osvaldo Bayer señala que con el advenimiento de la democracia, Sabato intentó justificar esa visita de apoyo a Videla como un reclamo por sus colegas desaparecidos. Los otros comensales desmintieron esa versión de Sabato y relataron que la única propuesta del escritor fue la creación de una comisión de censura para la televisión. Este episodio le trajo numerosas críticas en los años siguientes ―tal como ocurrió con otros personajes mediáticos que apoyaron abiertamente a la dictadura, como Mirtha Legrand (presentadora de televisión) o Juan Manuel Fangio (director de la empresa Mercedes Benz en Argentina responsable de la entrega de los delegados gremiales)― en casos similares. Entre sus detractores se contó al escritor Osvaldo Bayer, quien acusó a Sabato de «formar parte de la hipocresía argentina». En el exilio, Osvaldo Bayer relató como Sabato apoyó a la dictadura promocionando el Mundial de fútbol de 1978 en varios medios. Se destaca una nota en la revista alemana Geo-Magazin, en la que describía a los argentinos como «del color de piel de los europeos» que «comen como los italianos y visten como un inglés». El intelectual argentino blanqueó los horrores de la dictadura al mismo tiempo que dejaba mal parados a los refugiados argentinos en Europa. En 1979, Sabato publicó Apologías y rechazos, siete extensos ensayos sobre los males de la educación, en los que desafió a la censura impuesta por la dictadura militar en la Argentina. Por otra parte, el 12 de agosto de 1980 el periódico Clarín publicó la solicitada en la que se pidió por el destino de los ciudadanos argentinos desaparecidos durante la dictadura militar, con el título: «Se publique la lista de los desaparecidos. Se informe el paradero de los mismos»: Ernesto Sabato fue uno de los 175 firmantes. Conadep Una vez terminada la dictadura militar, Ernesto Sabato presidió la Comisión Nacional sobre la Desaparición de Personas, CONADEP, una comisión encargada de investigar las violaciones a los derechos humanos ocurridos en la Argentina entre 1976 y 1983 a manos de la citada dictadura militar. Esa investigación y posterior informe fueron plasmados en el sobrecogedor libro Nunca Más, en el que se recogen los testimonios de las desapariciones, torturas y muertes de personas durante la dictadura militar. La CONADEP constató que «existieron 340 centros clandestinos de detención» a lo largo de todo el territorio argentino, donde tuvieron lugar torturas y ejecuciones. El informe incluyó además la descripción detallada de los métodos de tortura. El 20 de septiembre de 1984, Sabato entregó al presidente Raúl Ricardo Alfonsín el informe de la comisión. Ese día, los organismos de derechos humanos convocaron a una concentración para respaldar dicha ceremonia, a la que acudieron cerca de 70 000 personas. Adhirieron a esa marcha el Servicio de Paz y Justicia (SerPaJ) liderado por el premio nobel Adolfo Pérez Esquivel, la Asamblea Permanente por los Derechos Humanos (APDH), el Movimiento Ecuménico por los Derechos Humanos (MEDH), la Liga Argentina por los Derechos del Hombre (LADH) y la agrupación Familiares de Detenidos Desaparecidos por Razones Políticas (FDDRP). El informe se hace eco de lo que se dado en llamar teoría de los dos demonios que relaciona los actos de violencia y terrorismo perpetrados por el Estado argentino con los actos violentos perpetrados por las organizaciones guerrilleras (como Montoneros y el ERP). La siguiente frase de Sabato en el prólogo al informe es representativa de esta visión imperante durante el juicio a las juntas: Con los años, la casi totalidad de organismos de derechos humanos defendieron y auspiciaron el informe Nunca Más en sus continuas reediciones. Algunos autores ponderan que el tiempo pareció potenciar las virtudes del informe, muy posiblemente debido al efecto profundo que causó en la sociedad argentina en los años posteriores a su divulgación. El informe Nunca más iba a abrirles las puertas para el juicio a las Juntas de la dictadura militar. Más tarde, Sabato condenó públicamente los doscientos ochenta indultos otorgados en 1989 a civiles y militares implicados en torturas, muertes y desapariciones durante el período de la dictadura en la Argentina. Últimos años En sus últimos escritos y apariciones públicas, declaró considerar que «es desde una actitud anarcocristiana que habremos de encaminar la vida». Luego de su deserción del socialismo de Estado, Sabato abogó en general por una sociedad basada en la libertad individual y la libre asociación, en el cooperativismo en la ciencia y la economía, y en la descentralización política. Años antes de su fallecimiento, se unió a la amplia lista de prominentes figuras de América Latina que manifestaron su apoyo a la independencia de Puerto Rico a través de su adhesión a la Proclama de Panamá aprobada por unanimidad en el Congreso Latinoamericano y Caribeño por la Independencia de Puerto Rico celebrado en Panamá en noviembre de 2006. Obras Novelas 1948: El túnel 1961: Sobre héroes y tumbas 1974: Abaddón el exterminador Ensayos 1945: Uno y el Universo 1951: Hombres y engranajes 1952: Heterodoxia 1956: El otro rostro del peronismo 1956: El caso Sábato: torturas y libertad de prensa. Carta abierta al general Aramburu 1963: El escritor y sus fantasmas 1963: Tango, discusión y clave 1967: Pedro Henríquez Ureña 1968: Tres aproximaciones a la literatura 1974: Eduardo Falú 1975: Carta a un joven escritor 1976: Diálogos con Jorge Luis Borges 1976: La cultura en la encrucijada nacional 1979: Apologías y rechazos 1979: Los libros y su misión en la liberación e integración de la América Latina 1985: Nunca más: informe de la Comisión Nacional sobre la Desaparición de Personas (CONADEP) 1988: Entre la letra y la sangre 1990: Querido y remoto muchacho 1998: Antes del fin 2000: La resistencia 2002 El horizonte ante el abismo 2002 Confesiones de un viejo escritor 2004: España en los diarios de mi vejez Antologías 1967: ¿Qué es el existencialismo? 1967: El pensamiento nacional y la encíclica Popularum Progressio 1969: Itinerario 1969: La convulsión política de nuestro tiempo. Enfrentamientos y coincidencias de una dramática selección de textos, frases, citas y aforismos 1971: Claves políticas 1973: La cultura en la encrucijada nacional 1974: Páginas vivas 1975: Antología 1981: La robotización del hombre y otras páginas 1982: Narrativa completa 1985: Páginas de Ernesto Sábato 1986: Sábato: cultura y educación 1989: Lo mejor de Ernesto Sábato 1995: Ernesto Sábato: pintura Como antologador 1999: Cuentos que me apasionaron 1 1999: Cuentos que me apasionaron 2 Obras completas 1966 Obras de ficción 1970 Obras de ensayo 1997 Obras completas. Ensayos 1997 Obras completas. Narrativa Referencias Enlaces externos Extracto del libro de memorias Antes del fin, El País, 30.04.2011, acceso el 01.05.2011 Sabato en 1977, en el programa de La 2 (TVE) A fondo, con Joaquín Soler Serrano. Bibliografia critica completa
519_0
Estadística
La estadística (la forma femenina del término alemán statistik, derivado a su vez del italiano statista, «hombre de Estado») es la disciplina que estudia la variabilidad, recolección, organización, análisis, interpretación y presentación de los datos, así como el proceso aleatorio que los genera siguiendo las leyes de la probabilidad. Síntesis La estadística es una ciencia formal, con un conocimiento propio, dinámico y continuo desarrollo obtenido a través del método científico formal. En ocasiones, las ciencias fácticas necesitan utilizar técnicas las estadísticas durante su proceso de investigación factual, con el fin de obtener nuevos conocimientos basados en la experimentación y en la observación. En estos casos, la aplicación de la estadística permite el análisis de datos provenientes de una muestra representativa, que busca explicar las correlaciones y dependencias de un fenómeno físico o natural, de ocurrencia en forma aleatoria o condicional. La estadística es útil para una amplia variedad de ciencias fácticas, desde la física hasta las ciencias sociales, desde las ciencias de la salud hasta el control de calidad. Además, se usa en áreas de negocios o instituciones gubernamentales con el objetivo de describir el conjunto de datos obtenidos para la toma de decisiones, o bien para realizar generalizaciones sobre las características observadas. En la actualidad, la estadística aplicada a las ciencias fácticas permite estudiar una determinada población a partir de la recopilación de información, el análisis de datos y la interpretación de resultados. Del mismo modo, también es una ciencia esencial para el estudio cuantitativo de los fenómenos de masa o colectivos. La estadística se divide en dos grandes áreas: Estadística descriptiva: Se dedica a la descripción, visualización y resumen de datos originados a partir de los fenómenos de estudio. Los datos pueden ser resumidos numérica o gráficamente. Su objetivo es organizar y describir las características sobre un conjunto de datos con el propósito de facilitar su aplicación, generalmente con el apoyo de gráficas, tablas o medidas numéricas. Ejemplos básicos de parámetros estadísticos son: la media y la desviación estándar. Ejemplos gráficos son: histograma, pirámide poblacional, gráfico circular, entre otros. Estadística inferencial: Se dedica a la generación de los modelos, inferencias y predicciones asociadas a los fenómenos en cuestión teniendo en cuenta la aleatoriedad de las observaciones. Se usa para modelar patrones en los datos y extraer inferencias acerca de la población bajo estudio. Estas inferencias pueden tomar la forma de respuestas a preguntas sí/no (prueba de hipótesis), estimaciones de unas características numéricas (estimación), pronósticos de futuras observaciones, descripciones de asociación (correlación) o modelamiento de relaciones entre variables (análisis de regresión). Otras técnicas de modelamiento incluyen análisis de varianza, series de tiempo y minería de datos. Su objetivo es obtener conclusiones útiles para lograr hacer deducciones acerca de la totalidad de todas las observaciones hechas, basándose en la información numérica. Ambas ramas (descriptiva e inferencial) se utilizan en la estadística aplicada. La estadística inferencial, por su parte, se divide en estadística paramétrica y estadística no paramétrica. Existe también una disciplina llamada estadística matemática que establece las bases teóricas de las técnicas estadísticas. La palabra «estadísticas» se refiere al resumen de resultados estadísticos, habitualmente descriptivos, como en estadísticas económicas, estadísticas criminales, etcétera. Historia Origen El término alemán Statistik, introducido originalmente por Gottfried Achenwall en 1749, se refería al análisis de datos del Estado, es decir, la «ciencia del Estado» (o más bien, de la ciudad-estado). También se llamó aritmética política de acuerdo con la traducción literal del inglés. No fue hasta el cuando el término estadística adquirió el significado de recolectar y clasificar datos. Este concepto fue introducido por el agrónomo y estadista escocés sir John Sinclair (1754-1835). En su origen, por tanto, la estadística estuvo asociada a los Estados o ciudades libres, para ser utilizados por el gobierno y cuerpos administrativos (a menudo centralizados). La colección de datos acerca de estados y localidades continúa ampliamente a través de los servicios de estadística nacionales e internacionales. En particular, los censos comenzaron a suministrar información regular acerca de la población de cada país. Así pues, los datos estadísticos se referían originalmente a los datos demográficos de una ciudad o Estado determinados. Y es por ello que en la clasificación decimal de Melvil Dewey, empleada en las bibliotecas, todas las obras sobre estadística se encuentran ubicadas al lado de las obras de o sobre la demografía. Ya se utilizaban representaciones gráficas y otras medidas en pieles, rocas, palos de madera y paredes de cuevas para controlar el número de personas, animales o ciertas mercancías. Hacia el año los babilonios usaban ya pequeños envases moldeados de arcilla para recopilar datos sobre la producción agrícola y de los géneros vendidos o cambiados. Los egipcios analizaban los datos de la población y la renta del país mucho antes de construir las pirámides en el Los libros bíblicos de Números y Crónicas incluyen en algunas partes trabajos de estadística. El primero contiene dos censos de la población de la Tierra de Israel y el segundo describe el bienestar material de las diversas tribus judías. En China existían registros numéricos similares con anterioridad al año Los antiguos griegos realizaban censos cuya información se utilizaba hacia el para cobrar impuestos. Empleo de la estadística en las civilizaciones antiguas En la Edad Antigua, la estadística consistía en elaborar censos (de población y tierras.). Su objetivo era facilitar la gestión de las labores tributarias, obtener datos sobre el número de personas que podrían servir en el ejército o establecer repartos de tierras o de otros bienes. En el Oriente Medio, bajo el dominio sumerio, Babilonia tenía casi 6000 habitantes. Se encontraron en ella tablillas de arcilla que registraban los negocios y asuntos legales de la ciudad. En Egipto: La estadística comienza con la Dinastía I, en el año Los faraones ordenaban la realización de censos con la finalidad de obtener los datos sobre tierras y riquezas para poder planificar la construcción de las pirámides. En China: Año el emperador Yao elabora un censo general sobre la actividad agrícola, industrial y comercial. El censo en el pueblo judío sirvió, además de propósitos militares, para calcular el monto de los ingresos del templo. En la Antigua Grecia: Se realizaron censos para cuantificar la distribución y posesión de la tierra y otras riquezas, organizar el servicio militar y determinar el derecho al voto. En la Antigua Roma: Durante el Imperio romano se establecieron registros de nacimientos y defunciones, y se elaboraron estudios sobre los ciudadanos, sus tierras y sus riquezas. En México: Año 1116, durante la segunda migración de las tribus chichimecas, el rey Xólotl ordenó que se hiciera un censo de la población. En la Edad Media Durante la Edad Media, la estadística no presentó grandes avances, pero destaca el trabajo de Isidoro de Sevilla, quien recopiló y clasificó datos de diversa naturaleza cuyos resultados se publicaron en la obra Originum sive Etymologiarum. En la Edad Moderna En España son destacables los censos de: Pecheros (1528); el de los Obispos (1587); el Censo de los Millones (1591); y el Censo del conde de Aranda (1768). En Inglaterra, la peste de la década de 1500 supuso la multiplicación de los datos contables referidos sobre todo a defunciones y nacimientos. Orígenes en probabilidad Los métodos estadístico-matemáticos emergieron desde la teoría de probabilidad, la cual data desde la correspondencia entre Pascal y Pierre de Fermat (1654). Christian Huygens (1657) da el primer tratamiento científico que se conoce a la materia. El Ars coniectandi (póstumo, 1713) de Jakob Bernoulli y la Doctrina de posibilidades (1718) de Abraham de Moivre estudiaron la materia como una rama de las matemáticas. En la era moderna, el trabajo de Kolmogórov ha sido un pilar en la formulación del modelo fundamental de la Teoría de Probabilidades, el cual es usado a través de la estadística. La teoría de errores se puede remontar a la Ópera miscellánea (póstuma, 1722) de Roger Cotes y al trabajo preparado por Thomas Simpson en 1755 (impreso en 1756) el cual aplica por primera vez la teoría de la discusión de errores de observación. La reimpresión (1757) de este trabajo incluye el axioma de que errores positivos y negativos son igualmente probables y que hay unos ciertos límites asignables dentro de los cuales se encuentran todos los errores; se describen errores continuos y una curva de probabilidad. Pierre-Simon Laplace (1774) hace el primer intento de deducir una regla para la combinación de observaciones desde los principios de la teoría de probabilidades. Laplace representó la Ley de probabilidades de errores mediante una curva y dedujo una fórmula para la media de tres observaciones. También, en 1871, obtiene la fórmula para la ley de facilidad del error (término introducido por Lagrange, 1744) pero con ecuaciones inmanejables. Daniel Bernoulli (1778) introduce el principio del máximo producto de las probabilidades de un sistema de errores concurrentes. El método de mínimos cuadrados, el cual fue usado para minimizar los errores en mediciones, fue publicado independientemente por Adrien-Marie Legendre (1805), Robert Adrain (1808), y Carl Friedrich Gauss (1809). Gauss había usado el método en su famosa predicción de la localización del planeta enano Ceres en 1801. Pruebas adicionales fueron escritas por Laplace (1810, 1812), Gauss (1823), James Ivory (1825, 1826), Hagen (1837), Friedrich Bessel (1838), W. F. Donkin (1844, 1856), John Herschel (1850) y Morgan Crofton (1870). Otros contribuidores fueron Ellis (1844), Augustus De Morgan (1864), Glaisher (1872) y Giovanni Schiaparelli (1875). La fórmula de Peters para , el probable error de una observación simple es bien conocido. El incluye autores como Laplace, Silvestre Lacroix (1816), Littrow (1833), Richard Dedekind (1860), Helmert (1872), Hermann Laurent (1873), Liagre y Didion. Augustus De Morgan y George Boole mejoraron la presentación de la teoría. Adolphe Quetelet (1796-1874), fue otro importante fundador de la estadística y quien introdujo la noción del «hombre promedio» (l’homme moyen) como un medio de entender los fenómenos sociales complejos tales como tasas de criminalidad, tasas de matrimonio o tasas de suicidios. El campo moderno de la estadística se emergió a los principios del dirigida por la obra de Francis Galton y Karl Pearson, quienes transformaron la estadística a convertirse en una disciplina matemática rigurosa usada por análisis, no solamente en la ciencia sino en la manufactura y la política. Las contribuciones de Galton incluyen los conceptos de desviación típica, correlación, análisis de la regresión y la aplicación de estos métodos al estudio de la variedad de características —la altura, el peso entre otros—. Pearson desarrolló el coeficiente de correlación de Pearson, definió como un momento-producto, el método de momentos por caber las distribuciones a las muestras y la distribuciones de Pearson, entre otras cosas. Galton y Pearson se fundaron Biometrika como su primera revista de la estadística matemática y la bioestadística (en aquel entonces conocida como la biometría). Pearson también fundó el primer departamento de estadística en University College de Londres. Durante el , la creación de instrumentos precisos para asuntos de salud pública (epidemiología, bioestadística, etc.) y propósitos económicos y sociales (tasa de desempleo, econometría, etc.) necesitó de avances sustanciales en las prácticas estadísticas. La segunda ola de los años 1910 y 1920 se inició William Gosset, y se culminó en la obra de Ronald Fisher, quien escribió los libros de texto que iban a definir la disciplina académica en universidades en todos lados del mundo. Sus publicaciones más importantes fueron su papel de 1918 The Correlation between Relatives on the Supposition of Mendelian Inheritance, lo cual era el primero en usar el término estadístico varianza, su obra clásica de 1925 Statistical Methods for Research Workers y su 1935 The Design of Experiments, donde desarrolló los modelos rigurosos de diseño experimental. Originó el concepto de suficiencia y la información de Fisher. En su libro de 1930 The Genetical Theory of Natural Selection aplicó la estadística a varios conceptos en la biología como el Principio de Fisher (sobre el ratio de sexo), el Fisherian runaway, un concepto en la selección sexual sobre una realimentación positiva efecto hallado en la evolución. Estado actual Hoy el uso de la estadística se ha extendido más allá de sus orígenes como un servicio al Estado o al gobierno. Personas y organizaciones usan la estadística para entender datos y tomar decisiones en ciencias naturales y sociales, medicina, negocios y otras áreas. La estadística es una sub-área de las matemáticas cuya aplicación en el ámbito de las ciencias fácticas es útil para el avance del conocimiento científico factual, considerándose como una ciencia formal «aliada» de la ciencia fáctica. Muchas universidades tienen departamentos académicos de matemáticas (con especialización en estadística) o de estadística separadamente. La estadística se enseña en departamentos tan diversos como psicología, sociología, educación y salud pública. Al aplicar la estadística a un problema científico, industrial o social, se comienza con un proceso o población a ser estudiado. Esta puede ser la población de un país, de granos cristalizados en una roca o de bienes manufacturados por una fábrica en particular durante un periodo dado. También podría ser un proceso observado en varios instantes y los datos recogidos de esta manera constituyen una serie de tiempo. Por razones prácticas, en lugar de compilar datos de una población entera, usualmente se estudia un subconjunto seleccionado de la población, llamado muestra. Datos acerca de la muestra son recogidos de manera observacional o experimental. Los datos son entonces analizados estadísticamente lo cual sigue dos propósitos: descripción e inferencia. El concepto de correlación es particularmente valioso. Análisis estadísticos de un conjunto de datos puede revelar que dos variables (esto es, dos propiedades de la población bajo consideración) tienden a variar conjuntamente, como si hubiera una conexión entre ellas. Por ejemplo, un estudio del ingreso anual y la edad de muerte podría resultar en que personas pobres tienden a tener vidas más cortas que personas de mayor ingreso. Las dos variables se dice que están correlacionadas. Sin embargo, no se puede inferir inmediatamente la existencia de una relación de causalidad entre las dos variables. El fenómeno correlacionado podría ser la causa de una tercera, previamente no considerada, llamada variable confusora. Si la muestra es representativa de la población, inferencias y conclusiones hechas en la muestra pueden ser extendidas a la población completa. Un problema mayor es el de determinar cuán representativa es la muestra extraída. La estadística ofrece medidas para estimar y corregir por aleatoriedad en la muestra y en el proceso de recolección de los datos, así como métodos para diseñar experimentos robustos como primera medida, ver diseño experimental. El concepto matemático fundamental empleado para entender la aleatoriedad es el de probabilidad. La estadística matemática (también llamada teoría estadística) es la rama de las matemáticas aplicadas que usa la teoría de probabilidades y el análisis matemático para examinar las bases teóricas de la estadística. El uso de cualquier método estadístico es válido solo cuando el sistema o población bajo consideración satisface los supuestos matemáticos del método. El mal uso de la estadística puede producir serios errores en la descripción e interpretación, lo cual podría llegar a afectar políticas sociales, la práctica médica y la calidad de estructuras tales como puentes y plantas de reacción nuclear. Incluso cuando la estadística es correctamente aplicada, los resultados pueden ser difíciles de interpretar por un inexperto. Por ejemplo, el significado estadístico de una tendencia en los datos, que mide el grado al cual la tendencia puede ser causada por una variación aleatoria en la muestra, puede no estar de acuerdo con el sentido intuitivo. El conjunto de habilidades estadísticas básicas (y el escepticismo) que una persona necesita para manejar información en el día a día se refiere como «cultura estadística». Métodos estadísticos Estudios experimentales y observacionales Un objetivo común para un proyecto de investigación es investigar la causalidad, y en particular extraer una conclusión en el efecto que algunos cambios en los valores de predictores o variables independientes tienen sobre una respuesta o variables dependientes. Hay dos grandes tipos de estudios para estudiar causalidad: estudios experimentales y observacionales. En ambos tipos de estudios se observa el efecto de una o varias variables independientes en el comportamiento de una variable dependiente. La diferencia entre los dos tipos es la forma en la que el estudio es conducido. Cada uno de ellos puede ser muy efectivo y la estadística juega un papel muy importante en el análisis de la información. Niveles de medición Hay cuatro tipos de mediciones o escalas de medición en estadística: niveles de medición (nominal, ordinal, intervalo y razón). Tienen diferentes grados de uso en la investigación estadística. Las medidas de razón, en donde un valor cero y distancias entre diferentes mediciones son definidas, dan la mayor flexibilidad en métodos estadísticos que pueden ser usados para analizar los datos. Las medidas de intervalo tienen distancias interpretables entre mediciones, pero un valor cero sin significado (como las mediciones de coeficiente intelectual o de la temperatura en grados Celsius). Las medidas ordinales tienen imprecisas diferencias entre valores consecutivos, pero un orden interpretable para sus valores. Las medidas nominales no tienen ningún rango interpretable entre sus valores. La escala de medida nominal, puede considerarse la escala de nivel más bajo. Se trata de agrupar objetos en clases. La escala ordinal, por su parte, recurre a la propiedad de «orden» de los números. La escala de intervalos iguales está caracterizada por una unidad de medida común y constante. Es importante destacar que el punto cero en las escalas de intervalos iguales es arbitrario, y no refleja en ningún momento ausencia de la magnitud que estamos midiendo. Esta escala, además de poseer las características de la escala ordinal, permite determinar la magnitud de los intervalos (distancia) entre todos los elementos de la escala. La escala de coeficientes o Razones es el nivel de medida más elevado y se diferencia de las escalas de intervalos iguales únicamente por poseer un punto cero propio como origen; es decir que el valor cero de esta escala significa ausencia de la magnitud que estamos midiendo. Si se observa una carencia total de propiedad, se dispone de una unidad de medida para el efecto. A iguales diferencias entre los números asignados corresponden iguales diferencias en el grado de atributo presente en el objeto de estudio. Técnicas de análisis estadístico Algunas pruebas (tests) y procedimientos para la investigación de observaciones son: Análisis de frecuencia acumulada Análisis de regresión Análisis de varianza (ANOVA) Análisis factorial confirmatorio Correlación: coeficiente de correlación de Pearson y coeficiente de correlación de Spearman Frecuencia estadística Gráfica estadística Iconografía de las correlaciones Prueba de χ² o prueba de chi cuadrada o prueba de ji cuadrada Prueba de la diferencia menos significante de Fisher Prueba t de Student U de Mann-Whitney Lenguaje y simbología Población y muestra Población: Es el todo o un conjunto formado por todos los valores existentes, ya sean personas, medidas u objetos que pueden ser expresados mediante una variable y además, que sean de interés estadístico para un estudio en específico. Al análisis completo de la población también se le suele conocer como censo. Población finita: Es aquella que expresa que es posible sobrepasarse al contar o bien, alcanzarse; por lo tanto, es la que tiene o incluye un número limitado ya sea de objetos, medidas o personas. Por ejemplo: el gasto en comida durante cierto tiempo, un conjunto de calificaciones o bien, el total de alumnos que estudian en una universidad. Población infinita: Es aquella que incluye a un gran número de conjunto de observaciones o medidas que no se pueden alcanzar con el conteo. Esto quiere decir que tiene un número ilimitado de valores, por ejemplo: la producción futura de una máquina o el lanzamiento de dados o una moneda. Muestra: Es aquel subconjunto perteneciente a una población. Esto quiere decir que se conforma por algunos datos de esta, ya sean ciertos objetos, personas, o medidas de la población. Al estudio de este concepto se le suele conocer como muestreo. Muestra representativa: Es aquel subconjunto representativo de una población, pero para que se consideren así se deben seguir ciertos procedimientos de selección o bien, un método de muestreo. Se dice que la muestra adecuada es aquella que contiene características esenciales de la población para lograr el objetivo de hacer generalizaciones con respecto al total de los datos sin examinar cada uno de ellos. Parámetro Parámetro: Es la medida de cierta característica numérica de una población que generalmente se expresa mediante símbolos griegos (μ o σ). Disciplinas especializadas Algunos campos de investigación usan la estadística tan extensamente que tienen terminología especializada. Estas disciplinas incluyen: Análisis de procesos (para análisis de datos en química analítica e ingeniería química) Análisis espacial Bioestadística (estadística aplicada a las ciencias de la salud) Ciencias actuariales Cienciometría Confiabilidad estadística Control de calidad Cultura estadística Demografía Econometría (estadística aplicada a la economía) Estadística computacional Estadística de la educación, la enseñanza, y la formación Estadística de negocios Estadística del medio ambiente Estadística en comercialización Estadística en epidemiología Estadística en ingeniería Estadística en ciencias de la salud Estadística en medicina Estadística en medicina veterinaria y zootecnia Estadística en nutrición Estadística en agronomía Estadística en planificación Estadística en investigación Estadística en psicología (psicometría) Estadística en restauración de obras Estadística en literatura Estadística en astronomía (astroestadística) Estadística en antropología (antropometría) Estadística en historia Estadística espacial Estadística industrial Estadística militar Estadísticas de consultoría Estadísticas deportivas Estadísticas sociales Encuestas por muestreo Física estadística Geoestadística Geografía Investigación de operaciones Matemática estadística minería de datos Procesamiento de imágenes Productividad Quimiometría (para análisis de datos en química analítica e Ingeniería química) Reconocimiento de patrones para el conocimiento de datos) sistemas de información geográfica La estadística es una ciencia esencial para los negocios y la producción. Se usa para entender la variabilidad de sistemas de medición, para el control estadístico de procesos (CEP o SPC), para compilar datos y para tomar decisiones en situaciones de incertidumbre. En todas estas aplicaciones es una ciencia clave. Computación estadística El incremento rápido y sostenido en el poder de cálculo de la computación desde la segunda mitad del ha tenido un sustancial impacto en la práctica de la ciencia estadística. Viejos modelos estadísticos fueron casi siempre de la clase de los modelos lineales. Ahora, complejos computadores junto con apropiados algoritmos numéricos han causado un renacer del interés en modelos no lineales (especialmente redes neuronales y árboles de decisión) y la creación de nuevos tipos tales como modelos lineales generalizados y modelos multinivel. El incremento en el poder computacional también ha llevado al crecimiento en popularidad de métodos intensivos computacionalmente basados en remuestreo, tales como tests de permutación y de bootstrap, mientras técnicas como el muestreo de Gibbs han hecho los métodos bayesianos más accesibles. La revolución en computadores tiene implicaciones en el futuro de la estadística, con un nuevo énfasis en estadísticas «experimentales» y «empíricas». Un gran número de paquetes estadísticos está ahora disponible para los investigadores. Los sistemas dinámicos y teoría del caos, desde hace una década, empezaron a interesar en la comunidad hispana, pues en la anglosajona de Estados Unidos estaba ya establecida la «conducta caótica en sistemas dinámicos no lineales» con 350 libros para 1997 y empezaban algunos trabajos en los campos de las ciencias sociales y en aplicaciones de la física. También se estaba contemplando su uso en analítica. Mal uso de la estadística A veces hay una percepción de que el conocimiento estadístico no se utiliza de forma correcta, encontrando maneras de interpretar los datos que sean favorables al presentador. Un dicho famoso, al parecer de Benjamin Disraeli, es: «Hay tres tipos de mentiras: mentiras pequeñas, mentiras grandes y estadísticas». El popular libro How to lie with statistics (Cómo mentir con las estadísticas en la edición española) de Darrell Huff discute muchos casos de mal uso de la estadística, con énfasis en gráficas malinterpretadas. Al escoger, rechazar o modificar una muestra de observaciones mediante procedimientos no aleatorizados, los resultados de su análisis pueden estar sesgados; por ejemplo, mediante la eliminación selectiva de valores atípicos (outliers). Este puede ser el resultado tanto de fraudes como de sesgos no intencionados por parte de investigadores con escaso conocimiento estadístico. Lawrence Lowell (decano de la Universidad de Harvard) escribió en 1909 que las estadísticas, «como algunos pasteles, son buenas si se sabe quién las hizo y se está seguro de los ingredientes». Por este motivo es fundamental que el análisis estadístico de datos sea realizado por profesionales cualificados, con Grado en Matemáticas con especialización en estadística o bien con Grado en Estadística, siendo cada vez más necesario que la estadística sea una profesión regulada por el Estado. Cuando personas sin la cualificación adecuada usan la estadística para analizar los datos de un experimento o de una investigación observacional en ciencias fácticas, uno de los errores más frecuentes es el desconocimiento del error de tipo I, que puede llevar a conclusiones falsas. La probabilidad de encontrar una asociación espuria o casual entre dos variables, y creer erróneamente que se ha encontrado una asociación real, se incrementa cuando en lugar de aplicar el método científico se realiza el hackeo estadístico de una base de datos (P-hacking). Esta mala práctica consiste en jugar con una base de datos y relacionar la variable dependiente con todas las posibles variables independientes hasta encontrar una asociación estadísticamente significativa, sin haber establecido previamente un marco conceptual y una hipótesis de investigación que justifiquen por qué se van a estudiar estas relaciones. La publicación de estos resultados en revistas científicas es una de las causas de la pérdida de credibilidad y reproducibilidad de la ciencia, lo que ha llevado a muchos científicos a realizar manifiestos de alerta. El hackeo estadístico es una de las razones por las que algunos estudios contradicen los resultados obtenidos en otros: un día se afirma que el café, el queso o el vino tinto protegen contra las enfermedades cardíacas y después otro estudio afirma que estos mismos alimentos causan esas enfermedades. Además, cada estudio suele utilizar procedimientos diferentes y técnicas estadísticas distintas, que no siempre están aplicadas de forma correcta. O bien se usan muestras pequeñas cuyos resultados no son confirmados en estudios de mayor tamaño. Sin embargo, muchos profesionales de las ciencias fácticas que leen estas publicaciones en revistas especializadas no perciben estas malas prácticas, los medios de comunicación amplifican la información alrededor del estudio y la desconfianza del público comienza a crecer. Inferencia clásica e inferencia bayesiana La aproximación de pruebas de hipótesis, ampliamente usada, obliga a establecer una hipótesis nula para contrastar posteriormente el acuerdo de los datos con esta hipótesis. Una mala interpretación de los resultados puede exagerar la importancia de pequeñas diferencias en estudios con muestras grandes que puede no tener ninguna relevancia práctica. Véase también críticas de prueba de hipótesis y controversia de la hipótesis nula. En los campos de la psicología y la medicina, especialmente con respecto a la aprobación de nuevos medicamentos por la Food and Drug Administration, las críticas a la prueba de hipótesis se han incrementado en los años recientes. Una respuesta ha sido un gran énfasis en el p-valor en vez de simplemente reportar si la hipótesis fue rechazada al nivel de significancia dado. De nuevo, sin embargo, esto resume la evidencia para un efecto pero no el tamaño del efecto. Una posibilidad es reportar intervalos de confianza, puesto que estos indican el tamaño del efecto y la incertidumbre. Esto ayuda a interpretar los resultados, como el intervalo de confianza para un dado indicando simultáneamente la significancia estadística y el efecto de tamaño. El p-valor y los intervalos de confianza son basados en los mismos cálculos fundamentales como aquellos para las correspondientes pruebas de hipótesis. Los resultados son presentados en un formato más detallado, en lugar del «sí o no» de las pruebas de hipótesis y con la misma metodología estadística. Otro tipo de aproximación es el uso de métodos bayesianos. Esta aproximación, sin embargo, también ha sido criticada. El fuerte deseo de que los medicamentos buenos sean aprobados y que los medicamentos peligrosos o de poco uso sean rechazados crea tensiones y conflictos (errores tipo I y II en el lenguaje de pruebas de hipótesis). Enseñanza de la estadística en las ciencias sociales Sobre la enseñanza de la estadística en las ciencias sociales, algunas investigaciones “sugieren que los estudiantes aprenden más cuando los profesores usan ejemplos concretos y problemas relevantes para ellos”. Para contar con ejemplos concretos y problemas relevantes a los estudiantes, es posible proponer actividades de aprendizaje que vinculen los métodos cuantitativos a los enfoques cualitativos, debido a que estos últimos son utilizados con mayor recurrencia en los planes de estudio de las licenciaturas en Ciencias sociales. Sobre esta combinación de métodos encontramos que una de sus principales virtudes es que “la recopilación de los ricos detalles descriptivos de los datos cualitativos se puede usar para cuantificar y generalizar los resultados”. Entre las ventajas de una enseñanza que combine los métodos cuantitativos con los cualitativos se encuentra el que los estudiantes desarrollen la destreza para triangular resultados, lo que disminuye la falibilidad inherente a cada enfoque. Por ejemplo los errores que puedan atribuirse a los datos de origen, dado que los métodos utilizan tipos de datos distintos, serán más confiables los resultados si proceden de una triangulación de métodos. Incluso, se puede contemplar la enseñanza de los métodos cuantitativos dentro de los programas de los distintos ejes del currículum académico. Actualmente es común que en las diversas asignaturas se ejercite el uso de los métodos de investigación cualitativos pero no de los cuantitativos. Esto debería cambiar porque “introducir el razonamiento cuantitativo en los cursos sustanciales permite ligar el entrenamiento en métodos cuantitativos, especialmente estadísticos, con los asuntos medulares de las ciencias sociales”. La estadística en el campo de la educación El análisis de datos estadísticos es un recurso ampliamente empleado en el campo educativo. Las estadísticas se emplean con mucha frecuencia en al campo de las ciencias físicas, sociales, médicas, económicas y muchas otras y, en todas ellas, predomina el uso didáctico o aplicado de las estadísticas. Un uso importante y novedoso es el empleo de las estadísticas del número de visitas de los distintos artículos de la Wikipedia: dicho análisis sirve para distinguir los artículos desarrollados en los planes de estudios de los distintos países, de los que no se encuentran en dichos planes. En la Wikipedia en alemán, por ejemplo, aparece en muchos de los temas educativos incluidos un subtema denominado Didaktic (Didáctica), que indica algunas sugerencias que sirven tanto para los estudiantes como para los profesores con el fin de incrementar el beneficio derivado de la lectura del tema. En la página de discusión de este artículo aparece un enlace automático que nos lleva a ver el número de visitas del artículo a lo largo de un período determinado (20, 30, 60, 90 días; 1 año o un lapso determinado entre dos fechas) de este artículo (estadística). Un punto debajo de una fecha determinada nos indica que es lunes por lo que podemos ver el bajo número de consultas de la página en el fin de semana y el gran incremento que hay en los días intermedios de la semana (generalmente en los miércoles y jueves). A veces, hay temas que no siguen siempre estas ideas y ello puede deberse a razones particulares de la materia o del plan de estudios, por ejemplo, hacer los exámenes en un viernes, lo cual significaría muchas consultas del artículo después del examen para ver en qué se ha acertado o fallado. Ver nota (). La enseñanza de la estadística debe enfocarse en la correcta selección de pruebas cuantitativas, la interpretación de los resultados y el uso de software estadísticos de acceso libre. Este enfoque práctico en la enseñanza de la estadística, permite que los estudiantes desarrollen la confianza para seleccionar y aplicar las pruebas adecuadas. Derecho estadístico Una de las tantas profesiones que mantiene una interrelación continúa con las diferentes disciplinas es la abogacía, el cual mantiene una relación concreta con la estadística. Teniendo en cuenta que la estadística es una ciencia que se caracteriza por ser aliada de los diferentes campos ya que este les proporciona los datos necesarios. Dicho vínculo se establece principalmente para poder saber qué aspectos de la sociedad se deben regular, mantiene como función principal la (fiabilidad y valides). Torres Manrique manifiesta “El derecho Estadístico es la disciplina jurídica sistematizada que estudia cuantitativa y cualitativamente la tendencia y frecuencia de los fenómenos que ocurren de forma masiva, con el objeto de contribuir al desenvolvimiento de la vida humana en sociedad, regulándola a efectos de hacerla más justa y menos manipulable”. Como punto de énfasis se establece que promociona un gran apoyo ya que es una herramienta de la administración de justicia y manifiesta las exigencias que se establecen en la actualidad, pero también se manifiestan una infinidad de datos establecidos que pueden ser utilizados de manera errónea. Se tiene que tener en cuenta que estos son influyentes en los juicios ya que puede determinar la inocencia o agravio del cliente, lamentablemente son mínimos los enfoques estadísticos rigurosos que se establecen en muchos países latinoamericanos. Para poder realizar un juicio más certeros se debe de establecer estudios como la Criminología Estadística, en el cual nos percatamos que el vínculo que se establece entre estas dos disciplinas es necesario, ya que este trabaja de manera correcta,inteligente y progresiva de manera que dota a los profesionales del derecho con los principios y técnicas más importantes para llevar a cabo sus investigaciones. Véase también Computación científica Controversia de la hipótesis nula Críticas de prueba de hipótesis Día Mundial de la Estadística Método Delphi, una técnica estructurada de comunicación, originalmente desarrollada para predicción sistemática e interactiva, que se basa en el uso de un grupo de expertos que contestan, en rondas, cuestionarios acerca de un problema tantas veces como se vayan encontrando, en cada ronda, nuevas posibles soluciones al mismo. Teoría de probabilidad Organización estadística de España Anuario Estadístico de España Medidas de tendencia central Sabermetría Debabrata Basu Referencias Bibliografía Enlaces externos Calidad Métodos de evaluación Inventos árabes
522_0
Electromagnetismo
El electromagnetismo es la rama de la física que estudia y unifica los fenómenos eléctricos y magnéticos en una sola teoría. El electromagnetismo describe la interacción de partículas cargadas con campos eléctricos y magnéticos. La interacción electromagnética es una de las cuatro fuerzas fundamentales del universo conocido. El electromagnetismo abarca diversos fenómenos del mundo real, como por ejemplo la luz. La luz es un campo electromagnético oscilante que se irradia desde partículas cargadas aceleradas. Aparte de la gravedad, la mayoría de las fuerzas en la experiencia cotidiana son consecuencia de electromagnetismo. Los principios del electromagnetismo encuentran aplicaciones en diversas disciplinas afines, tales como las microondas, antenas, máquinas eléctricas, comunicaciones por satélite, bioelectromagnetismo, plasmas, investigación nuclear, la fibra óptica, la interferencia y la compatibilidad electromagnéticas, la conversión de energía electromecánica, la meteorología por radar, y la observación remota. Los dispositivos electromagnéticos incluyen transformadores, relés, radio/TV, teléfonos, motores eléctricos, líneas de transmisión, guías de onda y láseres. Los fundamentos de la teoría electromagnética fueron presentados por Michael Faraday y formulados por primera vez de modo completo por James Clerk Maxwell en 1865. La formulación consiste en cuatro ecuaciones diferenciales vectoriales que relacionan el campo eléctrico, el campo magnético y sus respectivas fuentes materiales (corriente eléctrica, polarización eléctrica y polarización magnética), conocidas como ecuaciones de Maxwell, lo que ha sido considerada como la «segunda gran unificación de la física», siendo la primera realizada por Isaac Newton. El estudio de los campos electromagnéticos se puede dividir en electrostática —el estudio de las interacciones entre cargas en reposo— y la electrodinámica —el estudio de las interacciones entre cargas en movimiento y la radiación—. La teoría clásica del electromagnetismo se basa en la fuerza de Lorentz y en las ecuaciones de Maxwell. Muchas propiedades ópticas y físicas de la materia también son explicados por la teoría electromagnético. El electromagnetismo es una teoría de campos; es decir, las explicaciones y predicciones que provee se basan en magnitudes físicas vectoriales o tensoriales dependientes de la posición en el espacio y del tiempo. El electromagnetismo describe los fenómenos físicos macroscópicos en los cuales intervienen cargas eléctricas en reposo y en movimiento, usando para ello campos eléctricos y magnéticos y sus efectos sobre las sustancias sólidas, líquidas y gaseosas. Por ser una teoría macroscópica, es decir, aplicable a un número muy grande de partículas y a distancias grandes respecto de las dimensiones de estas, el electromagnetismo no describe los fenómenos atómicos y moleculares. La electrodinámica cuántica proporciona la descripción cuántica de esta interacción, que puede ser unificada con la interacción nuclear débil según el modelo electrodébil. Historia Historia de la teoría Originalmente, la electricidad y el magnetismo se consideraban dos fenómenos independientes entre sí. Este punto de vista cambió, sin embargo, con la publicación en 1873 del Tratado de electricidad y magnetismo de James Maxwell , que mostró que la interacción de cargas positivas y negativas está gobernada por una sola fuerza. Hay cuatro efectos principales, resultantes de estas interacciones, que han sido claramente demostrados por experimentos: Las cargas eléctricas son atraídas o repelidas entre sí con una fuerza inversamente proporcional al cuadrado de la distancia entre ellas: las cargas diferentes se atraen, las cargas iguales se repelen. Los polos magnéticos (o estados de polarización en puntos separados) se atraen o repelen entre sí de manera similar y siempre van en pares: cada polo norte no existe por separado del polo sur. La corriente eléctrica en un cable crea un campo magnético circular alrededor del cable, dirigido (en sentido horario o antihorario) según el flujo de corriente. Se induce una corriente en el bucle del cable cuando se acerca o aleja con relación al campo magnético, o cuando el imán se acerca o aleja del bucle del cable; la dirección de la corriente depende de la dirección de estos movimientos. En preparación para la conferencia, la noche del 21 de abril de 1820, Hans Christian Oersted hizo una observación asombrosa. Cuando estaba compilando el material, notó que la aguja de la brújula se desviaba del polo norte magnético cuando se encendía y apagaba la corriente eléctrica de la batería que estaba usando. Esta desviación lo llevó a creer que los campos magnéticos emanan de todos los lados de un cable a través del cual fluye una corriente eléctrica, al igual que la luz y el calor se propagan en el espacio, y esa experiencia indica una conexión directa entre la electricidad y el magnetismo. En el momento del descubrimiento, Oersted no ofreció una explicación satisfactoria de este fenómeno y no intentó presentar el fenómeno en cálculos matemáticos. Sin embargo, tres meses después, comenzó a realizar investigaciones más intensivas. Poco después, publicó los resultados de su investigación, demostrando que una corriente eléctrica crea un campo magnético cuando fluye a través de cables. En el sistema CGS , la unidad de inducción electromagnética, Oe, recibió su nombre de su contribución al campo del electromagnetismo. Las conclusiones de Oersted llevaron a un estudio intensivo de electrodinámica por parte de la comunidad científica mundial. Las obras de Dominique François Arago también se remontan a 1820 , quien advirtió que un cable por el que fluye una corriente eléctrica atrae limaduras de hierro . También magnetizó por primera vez alambres de hierro y acero, colocándolos dentro de una bobina de alambres de cobre por donde pasaba la corriente. También logró magnetizar la aguja colocándola en una bobina y descargando la Botella de Leyden a través de la bobina. Independientemente de Arago, Davy descubrió la magnetización del acero y el hierro por la corriente . Las primeras definiciones cuantitativas de la acción de una corriente sobre un imán de la misma forma se remontan a 1820 y pertenecen a científicos franceses Jean-Baptiste Biot y Félix Savart. Los experimentos de Oersted también influyeron en el físico francés André-Marie Ampere , quien presentó la ley electromagnética entre un conductor y una corriente en forma matemática. El descubrimiento de Oersted también representa un paso importante hacia un concepto de campo unificado. Esta unidad, que fue descubierta por Michael Faraday , completada por James Clerk Maxwell , y también refinada por Oliver Heaviside y Heinrich Hertz, es uno de los logros clave del siglo XIX en física matemática . Este descubrimiento tuvo implicaciones de gran alcance, una de las cuales fue comprender la naturaleza de la luz. La luz y otras ondas electromagnéticas toman la forma de fenómenos oscilatorios autopropagantes cuantificados del campo electromagnético llamados fotones. Diferentes frecuencias de vibración conducen a diferentes formas de radiación electromagnética: desde ondas de radio a bajas frecuencias, a luz visible a frecuencias medias, a rayos gamma a altas frecuencias. Oersted no fue la única persona que descubrió la conexión entre la electricidad y el magnetismo. En 1802, Giovanni Domenico Romagnosi , un jurista italiano, desvió una aguja magnética con descargas electrostáticas. Pero, de hecho, la investigación de Romagnosi no utilizó una celda galvánica y no había corriente continua como tal. El informe del descubrimiento se publicó en 1802 en un periódico italiano, pero la comunidad científica apenas lo notó en ese momento. Ramas Electrostática La electrostática es el estudio de los fenómenos asociados a los cuerpos cargados en reposo. Como describe la ley de Coulomb, estos cuerpos ejercen fuerzas entre sí. Su comportamiento se puede analizar en términos de la idea de un campo eléctrico que rodea cualquier cuerpo cargado, de manera que otro cuerpo cargado colocado dentro del campo estará sujeto a una fuerza proporcional a la magnitud de su carga y de la magnitud del campo en su ubicación. El que la fuerza sea atractiva o repulsiva depende de la polaridad de la carga. La electrostática tiene muchas aplicaciones, que van desde el análisis de fenómenos como tormentas eléctricas hasta el estudio del comportamiento de los tubos electrónicos. Cuando hablamos de electrostática nos referimos a los fenómenos que ocurren debido a una propiedad intrínseca y discreta de la materia, la carga, cuando es estacionaria o no depende del tiempo. La unidad de carga elemental, es decir, la más pequeña observable, es la carga que tiene el electrón. Se dice que un cuerpo está cargado eléctricamente cuando tiene exceso o falta de electrones en los átomos que lo componen. Por definición el defecto de electrones se la denomina carga positiva y al exceso carga negativa. La relación entre los dos tipos de carga es de atracción cuando son diferentes y de repulsión cuando son iguales. La carga elemental es una unidad muy pequeña para cálculos prácticos, por eso en el Sistema Internacional la unidad de carga eléctrica, el culombio, se define como la cantidad de carga transportada en un segundo por una corriente de un amperio de intensidad de corriente eléctrica. que equivale a la carga de 6,25 x 1018 electrones. El movimiento de electrones por un conductor se denomina corriente eléctrica y la cantidad de carga eléctrica que pasa por unidad de tiempo se define como la intensidad de corriente. Se pueden introducir más conceptos como el de diferencia de potencial o el de resistencia, que nos conducirían ineludiblemente al área de circuitos eléctricos, y todo eso se puede ver con más detalle en el artículo principal. El nombre de la unidad de carga se debe a Coulomb, quien en 1785 llegó a una relación matemática de la fuerza eléctrica entre cargas puntuales, que ahora se la conoce como ley de Coulomb: Entre dos cargas puntuales y existe una fuerza de atracción o repulsión que varía de acuerdo con el cuadrado de la distancia entre ellas y de dirección radial ; y es una constante conocida como permitividad eléctrica. Las cargas elementales al no encontrarse solas se las debe tratar como una distribución de ellas. Por eso debe implementarse el concepto de campo, definido como una región del espacio donde existe una magnitud escalar o vectorial dependiente o independiente del tiempo. Así el campo eléctrico está definido como la región del espacio donde actúan las fuerzas eléctricas. Su intensidad se define como el límite al que tiende la fuerza de una distribución de carga sobre una carga positiva que tiende a cero, así: Y así finalmente llegamos a la expresión matemática que define el campo eléctrico: Es importante conocer el alcance de este concepto de campo eléctrico: nos brinda la oportunidad de conocer cuál es su intensidad y qué ocurre con una carga en cualquier parte de dicho campo sin importar el conocimiento de qué lo provoca. Una forma de obtener qué cantidad de fuerza eléctrica pasa por cierto punto o superficie del campo eléctrico es usar el concepto de flujo eléctrico. Este flujo eléctrico se define como la suma de la cantidad de campo que atraviesa un área determinada, así: El matemático y físico, Carl Friedrich Gauss, demostró que la cantidad de flujo eléctrico en un campo es igual al cociente entre la carga encerrada por la superficie en la que se calcula el flujo, , y la permitividad eléctrica,. Esta relación se conoce como ley de Gauss: Magnetostática No fue sino hasta el año de 1820, cuando Hans Christian Ørsted descubrió que el fenómeno magnético estaba ligado al eléctrico, que se obtuvo una teoría científica para el magnetismo. La presencia de una corriente eléctrica, o sea, de un flujo de carga debido a una diferencia de potencial, genera una fuerza magnética que no varía en el tiempo. Si tenemos una carga q a una velocidad , en un campo magnético aparecerá una fuerza magnética inducida por el movimiento en esta carga, así: Para determinar el valor de ese campo magnético, Jean Baptiste Biot en 1820, dedujo una relación para corrientes estacionarias, ahora conocida como ley de Biot-Savart: Donde es un coeficiente de proporcionalidad conocido como permeabilidad magnética, es la intensidad de corriente, el es el diferencial de longitud por el que circula la corriente y es la distancia de este elemento de longitud el punto donde se evalúa la inducción magnética. De manera más estricta, es la inducción magnética, dicho en otras palabras, es el flujo magnético por unidad de área. Experimentalmente se llegó a la conclusión que las líneas de fuerza de campos magnéticos eran cerradas, eliminando la posibilidad de un monopolo magnético. La relación matemática se la conoce como ley de Gauss para el campo magnético: Además en la magnetostática existe una ley comparable a la de Gauss en la electrostática, la ley de Ampère. Esta ley nos dice que la circulación en un campo magnético es igual a la densidad de corriente que exista en una superficie cerrada: Cabe indicar que esta ley de Gauss es una generalización de la ley de Biot-Savart. Además que las fórmulas expresadas aquí son para cargas en el vacío, para más información consúltese los artículos principales. Electrodinámica clásica La electrodinámica es el estudio de los fenómenos asociados a los cuerpos cargados en movimiento y a los campos eléctricos y magnéticos variables. Dado que una carga en movimiento produce un campo magnético, la electrodinámica se refiere a efectos tales como el magnetismo, la radiación electromagnética, y la inducción electromagnética, incluyendo las aplicaciones prácticas, tales como el generador eléctrico y el motor eléctrico. Esta área de la electrodinámica, conocida como electrodinámica clásica, fue sistemáticamente explicada por James Clerk Maxwell, y las ecuaciones de Maxwell describen los fenómenos de esta área con gran generalidad. Una novedad desarrollada más reciente es la electrodinámica cuántica, que incorpora las leyes de la teoría cuántica a fin de explicar la interacción de la radiación electromagnética con la materia. Paul Dirac, Heisenberg y Wolfgang Pauli fueron pioneros en la formulación de la electrodinámica cuántica. La electrodinámica es inherentemente relativista y da unas correcciones que se introducen en la descripción de los movimientos de las partículas cargadas cuando sus velocidades se acercan a la velocidad de la luz. Se aplica a los fenómenos involucrados con aceleradores de partículas y con tubos electrónicos funcionando a altas tensiones y corrientes. En las secciones anteriores se han descrito campos eléctricos y magnéticos que no variaban con el tiempo. Pero los físicos a finales del siglo XIX descubrieron que ambos campos estaban ligados y así un campo eléctrico en movimiento, una corriente eléctrica que varíe, genera un campo magnético y un campo magnético de por si implica la presencia de un campo eléctrico. Entonces, lo primero que debemos definir es la fuerza que tendría una partícula cargada que se mueva en un campo magnético y así llegamos a la unión de las dos fuerzas anteriores, lo que hoy conocemos como la fuerza de Lorentz: Entre 1890 y 1900 Liénard y Wiechert calcularon el campo electromagnético asociado a cargas en movimiento arbitrario, resultado que se conoce hoy como potenciales de Liénard-Wiechert. Por otro lado, para generar una corriente eléctrica en un circuito cerrado debe existir una diferencia de potencial entre dos puntos del circuito, a esta diferencia de potencial se la conoce como fuerza electromotriz o «fem». Esta fuerza electromotriz es proporcional a la rapidez con que el flujo magnético varía en el tiempo, esta ley fue encontrada por Michael Faraday y es la interpretación de la inducción electromagnética, así un campo magnético que varía en el tiempo induce a un campo eléctrico, a una fuerza electromotriz. Matemáticamente se representa como: El físico James Clerk Maxwell de 1861 relacionó las anteriormente citadas ecuaciones para la ley de Gauss (), ley de Gauss para el campo magnético (), ley de Faraday () e introdujo el concepto de una corriente de desplazamiento como una densidad de corriente efectiva para llegar a la ley de Ampère generalizada : Las cuatro ecuaciones, tanto en su forma diferencial como en la integral aquí descritas, son fruto de la reformulación del trabajo de Maxwell realizada por Oliver Heaviside y Heinrich Rudolf Hertz. Pero el verdadero poder de estas ecuaciones, más la fuerza de Lorentz , se centra en que juntas son capaces de describir cualquier fenómeno electromagnético, además de las consecuencias físicas que posteriormente se describirán. La genialidad del trabajo de Maxwell es que sus ecuaciones describen un campo eléctrico que va ligado inequívocamente a un campo magnético perpendicular a este y a la dirección de su propagación, este campo es ahora llamado campo electromagnético. Dichos campos podían ser derivados de un potencial escalar () y un potencial vectorial () dados por las ecuaciones: La solución de las ecuaciones de Maxwell implicaba la existencia de una onda que se propagaba a la velocidad de la luz, con lo que además de unificar los fenómenos eléctricos y magnéticos la teoría formulada por Maxwell predecía con absoluta certeza los fenómenos ópticos. Así la teoría predecía a una onda que, contraria a las ideas de la época, no necesitaba un medio de propagación; la onda electromagnética se podía propagar en el vacío debido a la generación mutua de los campos magnéticos y eléctricos. Esta onda a pesar de tener una velocidad constante, la velocidad de la luz c, puede tener diferente longitud de onda y consecuentemente dicha onda transporta energía. La radiación electromagnética recibe diferentes nombres al variar su longitud de onda, como rayos gamma, rayos X, espectro visible, etc.; pero en su conjunto recibe el nombre de espectro electromagnético. Electrodinámica relativista Clásicamente, al fijar un sistema de referencia, se puede descomponer los campos eléctricos y magnéticos del campo electromagnético. Pero, en la teoría de la relatividad especial, al tener a un observador con movimiento relativo respecto al sistema de referencia, este medirá efectos eléctricos y magnéticos diferentes de un mismo fenómeno electromagnético. El campo eléctrico y la inducción magnética a pesar de ser elementos vectoriales no se comportan como magnitudes físicas vectoriales, por el contrario la unión de ambos constituye otro ente físico llamado tensor y en este caso el tensor de campo electromagnético. Así, la expresión para el campo electromagnético es: Esta representación se conoce como formulación covariante tetradimensional del electromagnetismo. Las expresiones covariantes para las ecuaciones de Maxwell y la fuerza de Lorentz se reducen a: Dada la forma de las ecuaciones anteriores, si el dominio sobre el que se extiende el campo electromagnético es simplemente conexo el campo electromagnético puede expresarse como la derivada exterior de un cuadrivector llamado potencial vector, relacionado con los potenciales del electromagnetismo clásico de la siguiente manera: Donde: , es el potencial electroestático. , es el potencial vector clásico. La relación entre el cuadrivector potencial y el tensor de campo electromanético resulta ser: El hecho de que la interacción electromagnética pueda representarse por un (cuadri)vector que define completamente el campo electromagnético es la razón por la que se afirma en el tratamiento moderno que la interacción electromagnética es un campo vectorial. En relatividad general el tratamiento del campo electromagnético en un espacio-tiempo curvo es similar al presentado aquí para el espacio-tiempo de Minkowski, solo que las derivadas parciales respecto a las coordenadas deben substituirse por derivadas covariantes. Electrodinámica cuántica Posteriormente a la revolución cuántica de inicios del siglo XX, los físicos se vieron forzados a buscar una teoría cuántica de la interacción electromagnética. El trabajo de Einstein con el efecto fotoeléctrico y la posterior formulación de la mecánica cuántica sugerían que la interacción electromagnética se producía mediante el intercambio de partículas elementales llamadas fotones. La nueva formulación cuántica lograda en la década de 1940 describe la interacción entre los bosones, o partículas portadoras de la interacción, y las otras partículas portadoras de materia (los fermiones). La electrodinámica cuántica es principalmente una teoría cuántica de campos renormalizada. Su desarrollo fue obra de Sinitiro Tomonaga, Julian Schwinger, Richard Feynman y Freeman Dyson alrededor de los años 1947 a 1949. En la electrodinámica cuántica, la interacción entre partículas viene descrita por un lagrangiano que posee simetría local, concretamente simetría de gauge. Para la electrodinámica cuántica, el campo de gauge donde los fermiones interactúan es el campo electromagnético, descrito en esta teoría como los estados de bosones (fotones, en este caso) portadores de la interacción. Matemáticamente, el lagrangiano para la interacción entre fermiones mediante intercambio de fotones viene dado por: Donde el significado de los términos son: son las matrices de Dirac. y son los campos o espinores de Dirac que representan las partículas cargadas eléctricamente. es la derivada covariante asociada a la simetría gauge. el operador asociado al potencial vector covariante del campo electromagnético y el operador de campo asociado tensor de campo electromagnético. Unidades de electromagnetismo del SI Véase también Interacciones fundamentales Electricidad Magnetismo Historia de la electricidad Superfuerza Teoría del absorbedor de Wheeler-Feynman Referencias Bibliografía Baumgart K.K . , . Electromagnetismo // Diccionario enciclopédico Brockhaus y Efron : en 86 volúmenes (82 volúmenes y 4 adicionales). - SPb. , 1890-1907. Landau L. D., Lifshits E. M. Un curso corto de física teórica . En 2 volúmenes - M .: Nauka, 1972 .-- T. II. Mecánica cuántica. - 368 p. Enlaces externos
523_0
Entropía (desambiguación)
El término Entropía (tendencia natural de la pérdida del orden) puede referirse a: En física y química a: Entropía termodinámica, una magnitud que mide la parte de la energía que no puede utilizarse para producir un trabajo; es el grado de desorden que poseen las moléculas que integran un cuerpo, o también el grado de irreversibilidad alcanzada después de un proceso que implique transformación de energía. Entropía de formación, la diferencia de entropía en el proceso de formación de sustancias a partir de sus elementos constituyentes. Entropía de Kolmogórov, objeto o dimensión estudiado en la física y matemáticas a partir de las homotecias. En astrofísica y cosmología a: Entropía de los agujeros negros En lingüística (y especialmente en semiótica) a: Entropía, el nivel o grado de información discursiva frecuentemente ponderado por la cantidad de lexemas, así se considera que un discurso con muchos neologismos es más entrópico que uno con pocos neologismos (notar que el mayor grado de neologismos puede aportar más información pero también -si es exagerado- caos en la información). En teoría de la información a: Entropía en la información, o entropía de Shannon, el grado de incertidumbre que existe sobre un conjunto de datos. Entropía de Alfred Rényi. Entropía condicional En computación a: Entropía es la aleatoriedad recogida por un sistema operativo o una aplicación para su uso en criptografía. Entropia Universe, un videojuego de rol multijugador masivo en línea. En matemática a: Entropía topológica, la correspondiente a la cantidad real asociada a todo sistema topológicamente dinámico. Entropía métrica, la correspondiente a la cantidad real asociada a todo sistema dinámico mensurable. En ecología a: entropía, medida asociada a la biodiversidad. En música a: Entropia, álbum del grupo sueco Pain of Salvation. Entropia, álbum del grupo chileno Invernadero. Entropía, álbum del mexicano Humbe Enlaces externos
525_0
Espín
El espín (del inglés spin 'giro, girar') es una propiedad física de las partículas elementales por la cual tienen un momento angular intrínseco de valor fijo. El espín fue introducido en 1925 por Ralph Kronig e, independientemente, por George Uhlenbeck y Samuel Goudsmit. La otra propiedad intrínseca de las partículas elementales es la carga eléctrica. Introducción Si bien la teoría cuántica de la época no podía explicar algunas propiedades de los espectros atómicos, los físicos Goudsmit y Uhlenbeck descubrieron que, añadiendo un número cuántico adicional —el «número cuántico de espín»— se lograba dar una explicación más completa de los espectros atómicos. La primera evidencia experimental de la existencia del espín se produjo con el experimento realizado en 1922 por Otto Stern y Walther Gerlach, aunque su interpretación no llegara sino hasta 1927. Pronto, el concepto de espín se amplió a todas las partículas subatómicas, incluidos los protones, los neutrones y las antipartículas. El espín proporciona una medida del momento angular intrínseco de toda partícula. En contraste con la mecánica clásica, donde el momento angular se asocia a la rotación de un objeto extenso, el espín es un fenómeno exclusivamente cuántico, que no se puede relacionar de forma directa con una rotación en el espacio. La intuición de que el espín corresponde al momento angular debido a la rotación de la partícula en torno a su propio eje solo debe tenerse como una imagen mental útil, puesto que, tal como se deduce de la teoría cuántica relativista, el espín no tiene una representación en términos de coordenadas espaciales, de modo que no se puede referir ningún tipo de movimiento. Eso implica que cualquier observador al hacer una medida del momento angular detectará inevitablemente que la partícula posee un momento angular intrínseco total, difiriendo observadores diferentes solo sobre la dirección de dicho momento, y no sobre su valor (este último hecho no tiene análogo en mecánica clásica). Existe una relación directa entre el espín de una partícula y la estadística que obedece en un sistema colectivo de muchas de ellas. Esta relación, conocida empíricamente, es demostrable en teoría cuántica de campos relativista. Propiedades del espín Como propiedad mecanocuántica, el espín presenta una serie de cualidades que lo distinguen del momento angular clásico: El valor de espín está cuantizado, por tanto no se pueden encontrar partículas con espín de cualquier valor. El espín de una partícula siempre es un múltiplo entero de (donde es igual a h la constante de Planck dividida entre , también llamada constante reducida de Planck). Esto está relacionado con las diferentes representaciones irreductibles del grupo de rotaciones SO(3), cada una de ellas caracterizada por un número entero m. Cuando se mide el espín en diferentes direcciones, solo se obtienen una serie de valores posibles, que son sus posibles proyecciones sobre esa dirección. Por ejemplo, la proyección del momento angular de espín de un electrón, si se mide en una dirección particular dada por un campo magnético externo, puede resultar únicamente en los valores o bien . Además, la magnitud total del espín es única para cada tipo de partícula elemental. Para los electrones, los protones y los neutrones, esta magnitud es, en unidades de , siendo . Esto contrasta con el caso clásico donde el momento angular de un cuerpo alrededor de su eje puede asumir diferentes valores según la rotación sea más o menos rápida. Teorema espín-estadística Otra propiedad fundamental de las partículas cuánticas es que parecen existir solo dos tipos llamados fermiones y bosones, los primeros obedecen la estadística de Fermi-Dirac y los segundos la estadística de Bose-Einstein. Eso implica que los agregados de fermiones idénticos están descritos por funciones de onda totalmente antisimétricas mientras que los bosones idénticos vienen descritos por funciones de onda totalmente simétricas. Curiosamente existe una conexión entre el tipo de estadística que obedecen las partículas y su espín. Los fermiones tienen espines semienteros y los bosones enteros: Donde n y m son números enteros no negativos (números naturales) que dependen del tipo de partículas. Los electrones, neutrones y protones son fermiones de espín mientras que los fotones tienen espín . Algunas partículas exóticas como el pion o el bosón de Higgs tienen espín nulo. Los principios de la mecánica cuántica indican que los valores del espín se limitan a múltiplos enteros o semienteros de . Tratamiento matemático del espín En mecánica cuántica el espín (de una partícula de espín s) se representa como un operador sobre un espacio de Hilbert de dimensión finita de dimensión 2s+1. Este operador vectorial viene dado por: siendo las matrices de Pauli (o alguna otra base que genere el álgebra de Lie su(2)). El proceso de medición del espín mediante el operador se hace de la forma, donde los operadores vienen dados por las matrices de Pauli. Estas se escriben en función de la base común proporcionada por los autovectores de . La base en se define para una partícula (el caso más sencillo ) que tiene el espín con proyección en la dirección z (en coordenadas cartesianas) hay dos autoestados de S. Se asignan vectores a los espines como sigue: entonces el operador correspondiente en dicha representación será Para partículas de espín superior la forma concreta de las matrices cambia. Así para partículas de espín s las matrices que representan matemáticamente el espín son matrices cuadradas de 2s+1 x 2s+1. Espín y momento magnético Las partículas con espín presentan un momento magnético, recordando a un cuerpo cargado eléctricamente en rotación (de ahí el origen del término: spin, en inglés, significa "girar"). La analogía se pierde al ver que el momento magnético de espín existe para partículas sin carga, como el fotón. El ferromagnetismo surge del alineamiento de los espines (y, ocasionalmente, de los momentos magnéticos orbitales) en un sólido. Relación con la rotación clásica Los primeros modelos del espín del electrón imaginaban una masa cargada en rotación, pero este modelo falla cuando se examina en detalle: la distribución espacial requerida no coincide con los límites del radio del electrón: la velocidad de rotación requerida supera la velocidad de la luz. En el Modelo estándar, las partículas fundamentales se consideran todas "puntuales": tienen sus efectos a través del campo que las rodea. Cualquier modelo para el espín basado en la rotación de la masa tendría que ser coherente con ese modelo. El análogo clásico del espín cuántico es una circulación de energía o densidad de momento en el campo ondulatorio de la partícula: "el espín es esencialmente una propiedad ondulatoria". Este mismo concepto de espín puede aplicarse a las ondas gravitatorias en el agua: "el espín se genera por el movimiento circular de sub-longitud de onda de las partículas de agua". El espín del fotón es la descripción cuántico-mecánica de la polarización de la luz, donde espín +1 y espín -1 representan dos direcciones opuestas de polarización circular. Así, la luz de una polarización circular definida consiste en fotones con el mismo espín, ya sea todos +1 o todos -1. El espín también representa la polarización para otros bosones vectoriales. Relación con el momento angular orbital Como su nombre indica, el espín se concibió originalmente como la rotación de una partícula alrededor de algún eje. Históricamente momento angular orbital relacionado con las órbitas de las partículas. Mientras que los nombres basados en modelos mecánicos han sobrevivido, la explicación física no lo ha hecho. El cuantización altera fundamentalmente el carácter tanto del espín como del momento angular orbital. Dado que las partículas elementales son puntuales, su autorrotación no está bien definida. Sin embargo, el espín implica que la fase de la partícula depende del ángulo como , para rotación de ángulo θ alrededor del eje paralelo al espín S. Esto es equivalente a la interpretación cuántico-mecánica del momento como dependencia de fase en la posición, y del momento angular orbital como dependencia de fase en la posición angular. Para los fermiones, la imagen es menos clara. La velocidad angular es igual por el teorema de Ehrenfest a la derivada del Hamiltoniano a su momento conjugado, que es el operador de momento angular total. . Por tanto, si el Hamiltoniano H depende del espín S, dH/dS es distinto de cero, y el espín causa velocidad angular, y por tanto rotación real, es decir, un cambio en la relación fase-ángulo a lo largo del tiempo. Sin embargo, si esto es válido para el electrón libre es ambiguo, ya que para un electrón, S2 es constante, y por lo tanto es una cuestión de interpretación si el Hamiltoniano incluye tal término. Sin embargo, el espín aparece en la ecuación de Dirac, y por tanto el Hamiltoniano relativista del electrón, tratado como un campo de Dirac, puede interpretarse como que incluye una dependencia en el espín S. Bajo esta interpretación, los electrones libres también se autorrotan, entendiéndose el efecto zitterbewegung como esta rotación. Número cuántico El espín obedece a las leyes matemáticas de cuantización del momento angular. Las propiedades específicas de los momentos angulares de espín incluyen: Los números cuánticos de espín pueden tomar valores semienteros. Aunque la dirección de su espín puede cambiarse, la magnitud del espín de una partícula elemental no puede cambiarse. El espín de una partícula cargada está asociado a un momento de dipolo magnético con un -factor que difiere de 1. (En el contexto clásico, esto implicaría la distribuciones internas de carga y masa diferentes para un objeto giratorio.) La definición convencional del número cuántico de espín es , donde puede ser cualquier entero no negativo. Por lo tanto, los valores permitidos de son 0, , 1, , 2, etc. El valor de para una partícula elemental depende sólo del tipo de partícula y no puede ser alterado de ninguna manera conocida (en contraste con la dirección de espín descrita más adelante). El momento angular de espín de cualquier sistema físico está cuantizado. Los valores permitidos de son donde es la constante de Planck, y es la constante reducida de Planck. En cambio, el momento angular orbital sólo puede tomar valores enteros de ; es decir, valores pares de . Aplicaciones a las nuevas tecnologías o a tecnologías futuras Magnetorresistencia y láser Actualmente, la microelectrónica encuentra aplicaciones a ciertas propiedades o efectos derivados de la naturaleza del espín, como es el caso de la magnetorresistencia (MR) o la magnetorresistencia gigante (MRG) que se aprovecha en los discos duros. Se puede ver el funcionamiento de los láseres como otra aplicación de las propiedades del espín. En el caso de los bosones se puede forzar a un sistema de bosones a posicionarse en el mismo estado cuántico. Este es el principio fundamental del funcionamiento de un láser en el que los fotones, partículas de espín entero, se disponen en el mismo estado cuántico produciendo trenes de onda en fase. Espintrónica y computación cuántica Al uso, presente y futuro, de tecnología que aprovecha propiedades específicas de los espines o que busca la manipulación de espines individuales para ir más allá de las actuales capacidades de la electrónica se la conoce como espintrónica. También se baraja la posibilidad de aprovechar las propiedades del espín para futuras computadoras cuánticas, en los que el espín de un sistema aislado pueda servir como qubit o bit cuántico. En este sentido, el físico teórico Michio Kaku, en su libro universos paralelos, explica de modo sencillo y divulgativo cómo los átomos pueden tener orientado su espin hacia arriba, hacia abajo o a un lado, indistintamente. Los bits de ordenador (0 y I) podrían ser reemplazados por qubit (algo entre 0 y I), convirtiendo las computadoras cuánticas en una herramienta mucho más potente. Esto permitiría no solo renovar los fundamentos de la informática sino superar los procesadores actuales basados en el silicio. Véase también Espinor Referencias Bibliografía Galindo, A. y Pascual P.: Mecánica cuántica, Ed. Eudema, Barcelona, 1989, ISBN 84-7754-042-X. Enlaces externos El espín del electrón Química cuántica Mecánica cuántica Simetría rotacional Espintrónica Ciencia de 1925 Alemania en 1925 Estados Unidos en 1925 Ciencia y tecnología de Estados Unidos del siglo XX Ciencia y tecnología de Alemania del siglo XX
526_0
Economía (ciencia económica)
La economía (del griego οἶκος oîkos 'casa' y νομός nomós 'regla, ley, prescripción'; "administración de la casa") es la ciencia social que estudia las leyes que rigen la producción, distribución y consumo de bienes y servicios, así como los modelos y sistemas económicos en los que se llevan a cabo las diversas actividades económicas humanas. La economía como ciencia generalmente se divide en dos grandes ramas, por un lado la microeconomía que estudia el comportamiento de los agentes económicos individuales y, por otro la macroeconomía que estudia todas las interacciones entre agentes individuales como un conjunto global. Los economistas son los científicos sociales encargados de su estudio, para lo cual, utilizan el método científico para formular y probar hipótesis, concebir teorías y construir modelos económicos parciales y generales que puedan explicar el comportamiento económico de los agentes y las sociedades; así mismo, tales conocimientos se suelen aplicar para la solución de problemas económicos mediante la formulación, ejecución y evaluación de políticas económicas, mediante la construcción de sistemas de incentivos económicos para la mejora del funcionamiento de las instituciones públicas y las empresas, además de servir como criterio principal en la toma de decisiones económicas de los negocios. Para su estudio científico y aplicación, se utilizan herramientas de análisis como la estadística, la econometría, la ciencia de datos, y la computación científica. Desde su origen, el hombre ha buscado formas de satisfacer sus necesidades, lo cual presenta muchos obstáculos pues la fuente de la mayoría de los bienes son recursos no renovables y perecederos. La combinación de estos factores, la disponibilidad o no de los bienes, las necesidades humanas y su naturaleza social dieron en su momento origen a la economía. La economía nace de las necesidades siempre crecientes del núcleo principal de la sociedad, que es la familia. Tal como el origen etimológico del término "economía" indica, en una casa se deben tomar muchas decisiones entre las cuales debe decidirse qué tareas serán realizadas por cada uno de sus miembros y qué recibirán a cambio. Un ejemplo de la administración natural que se da en una casa es el que, prestando su "mano de obra", cocina o lava la ropa y a manera de pago recibe un postre extra en la cena o decide qué se verá en la televisión. En suma, en una familia se deben distribuir los recursos, que son agotables, entre los diferentes miembros según sus habilidades, esfuerzos y deseos. Al igual que una casa, la sociedad enfrenta numerosas decisiones día a día. Una sociedad debe encontrar la manera de decidir qué trabajos deben realizarse y quién llevará a cabo estas tareas. Se necesitan personas con diferentes profesiones y oficios que trabajen la tierra, otras que confeccionen ropa, otras que diseñen y construyan edificios, etc. Una vez que se han asignado las diversas tareas a los individuos que las llevarán a cabo (así como la tierra, los edificios y las máquinas), deben designarse, de igual modo, los diferentes bienes y servicios que serán producidos y la manera en la que se realizará la asignación de recursos en la sociedad. La economía no tiene mucha dificultad ya que es una actividad natural del ser humano que deriva en buena medida de su comportamiento gregario, tal como se aprecia en otros animales que exhiben el mismo tipo de conducta como las hormigas o las abejas que entre sus individuos presentan una división de tareas muy específica, lo cual tiene como único fin asegurar la supervivencia de las complejas colonias que forman en sus hormigueros y colmenas respectivamente. Independientemente de si se hace referencia a la economía de una ciudad, de un país o a la del mundo, la economía es simplemente un grupo de personas interactuando cotidianamente entre sí. El comportamiento de una economía refleja el comportamiento de sus individuos. Los fenómenos económicos se explican por la presencia de la actividad humana, ya que son los actos humanos los que dan sentido económico al mundo real de las cosas que nos rodean. La economía como tal existe desde que el hombre tuvo que enfrentar la escasez de recursos y el exceso de demanda, así como la justa y eficaz repartición de los mismos. La economía como ciencia La economía como ciencia es relativamente joven: nació en el con Adam Smith, quien en su libro La riqueza de las naciones (1776), desarrolló el primer modelo de economía de mercado. La economía es una ciencia social que estudia el comportamiento y las elecciones del hombre entre bienes alternativos, en un contexto de escasez de recursos. Es decir, la economía estudia el comportamiento del hombre ante la escasez de recursos. Por ello se dice que la actividad económica es humana, y la economía una ciencia social. La escasez se refiere a la insuficiencia de recursos ante las necesidades siempre crecientes del hombre, y para explicarla se tiene que distinguir entre los tipos de bienes disponibles: Bienes libres: Son aquellos que no escasean, es decir, existen en cantidad ilimitada, no son exclusivos ni tampoco rivales; por lo que su consumo no genera algún problema económico. Bienes económicos: Son aquellos que escasean, o que están disponibles en forma limitada, por lo que al mismo tiempo pueden ser excluyentes y rivales. De acuerdo con las leyes de la oferta y la demanda, el mercado los distribuye de manera eficiente. Al ser una ciencia social, cuyo objeto de estudio es el comportamiento económico del hombre, la economía se transforma al mismo tiempo que evoluciona el ser humano. El problema de la economía es resolver y asignar correctamente los recursos. Para ello se deben responder las preguntas qué, cómo, cuándo, dónde y para quién producir. En el ámbito de las ciencias sociales, la economía es la más cercana a las ciencias exactas ya que en ella se utilizan métodos matemáticos y estadísticos y sus resultados pueden ser predecibles. Entonces, la economía (como ciencia económica) es la ciencia social que estudia: La extracción, producción, intercambio, distribución y consumo de bienes y servicios; La forma o medios de satisfacer las necesidades humanas ilimitadas mediante recursos limitados; La forma en la que las personas y sociedades sobreviven, prosperan y funcionan. La distribución eficiente de los factores productivos en una sociedad. Por lo tanto, la economía puede definirse como la ciencia que estudia «cómo se organiza una sociedad para producir sus medios de existencia que, distribuidos entre sus miembros y consumidos por ellos, permiten que la sociedad pueda producirlos de nuevo y así sucesivamente, proveyendo con ello, de una forma constantemente renovada, la base material para el conjunto de la reproducción de la sociedad en el tiempo». Más allá del enfoque en los procesos económicos (extracción, transformación, producción, distribución y consumo) el análisis económico se ha aplicado a negocios, finanzas, cuidado de la salud y gobierno. También se pueden aplicar a disciplinas tan diversas como el crimen,<ref>Friedman, David D. (2002). "Crime," The Concise Encyclopedia of Economics.'.' Retrieved October 21, 2007.</ref> educación, la familia, el derecho, la elección pública, la religión, instituciones, guerra, la ciencia y el medio ambiente. En el cambio al siglo XXI, el expansivo dominio de la economía en las ciencias sociales se ha descrito como el imperialismo de la economía. El fin último de la economía es mejorar las condiciones materiales de vida de las personas. Definiciones En la economía hay diferentes puntos de vista, según el enfoque que se adopte. De ellos, destacan sobre todo dos: el enfoque objetivo y el enfoque subjetivo; por lo tanto, sobresalen la definición objetiva y la definición subjetiva, que refieren a dos teorías del valor (objetivo y subjetivo, respectivamente). Definición objetiva clásica Los clásicos no hablaron de economía, sino de economía política. De la misma manera que los mercantilistas trataron de aumentar el fondo de capital productivo de la nación, también con el fin de aumentar la capacidad defensiva de la nación pero, combatiendo las políticas mercantilistas, trataron de lograrlo con un libre intercambio. La riqueza de las naciones (An Inquiry into the Nature and Causes of the Wealth of Nations, en el original en inglés), escrito por Adam Smith, tiene pocos aspectos originales, pero su visión de conjunto ha influido mucho sobre los economistas posteriores. Wealth en esos tiempos significaba un fondo de capital productivo. Para un programa de crecimiento, Smith propone, en las primeras frases de su obra mayor: Reducir el trabajo improductivo, o sea el trabajo que no vuelve a ser insumo del próximo ciclo productivo, principalmente el consumo de los terratenientes que viven de rentas. Este concepto Smith lo debe a los fisiócratas con quienes compartió en su paso por París. Aumentar los mercados para facilitar una mayor división de trabajo. Este concepto incluye especializaciones, mejoras tecnológicas e inventos. La competencia, es decir, la imitación de tecnologías superiores, hace que la división de trabajo baje los precios, aumente los ingresos reales y el poder de compra que a su vez permite profundizar todavía más la división de trabajo. Respecto al trabajo improductivo, esto es, una mercancía o un servicio que no formará parte del próximo ciclo productivo, la división de trabajo no es importante, ya que el precio menor no es un insumo más barato del ciclo productivo que reduce el nivel general de precios. Definición objetiva marxista La definición clásica de la corriente objetiva marxista es de Friedrich Engels, quien señala: «La economía política es la ciencia que estudia las leyes que rigen la producción, la distribución, la circulación y el consumo de los bienes materiales que satisfacen necesidades humanas». Karl Marx a su vez señala que la economía es «la ciencia que estudia las relaciones sociales de producción». También se le llama “la ciencia de la recta administración”, opuesta a la crematística. La corriente objetiva marxista se basa en el materialismo histórico, se refiere al concepto del valor-trabajo, por lo que el valor tiene su origen objetivo en la cantidad de trabajo requerido para la obtención de los bienes. Y es histórico porque concibe el capitalismo como una forma u organización social correspondiente a un determinado momento histórico. Esta definición ha engendrado una corriente de pensamiento económico que hoy día se le conoce como la economía política. Definición subjetiva o marginalista La definición clásica de la orientación subjetiva o marginalista es de Lionel Robbins, quien afirma: «La economía es la ciencia que se encarga del estudio de la satisfacción de las necesidades humanas mediante bienes que, siendo escasos, tienen usos alternativos entre los cuales hay que optar». Objeto de estudio El objeto de la economía es estudiar la distribución de los bienes económicos, considerando los procesos de producción, comercio, distribución y consumo de estos para satisfacer las necesidades del ser humano. En otras palabras, analiza las decisiones relacionadas entre los recursos de los que se dispone (limitados) y las necesidades que cubren (ilimitadas aunque jerarquizadas), de los individuos reconocidos para tomar dichas decisiones. El objeto de la economía es muy amplio, pues abarca el estudio y análisis de los siguientes hechos: La forma en que se fijan los precios de los bienes y de los factores productivos (tierra, trabajo, capital y habilidades empresariales) y cómo se utilizan para asignar los recursos. El comportamiento de los diferentes tipos de mercados y la forma en que se asigna el capital en la sociedad. Las consecuencias de la intervención del Estado en la sociedad y su influencia en la eficiencia del mercado. La distribución de la renta y propone los mejores métodos de ayuda a la pobreza sin alterar los resultados económicos. La influencia del gasto público, los impuestos y el déficit presupuestario del Estado en el crecimiento de los países. Como se desarrollan los ciclos económicos, sus causas, las oscilaciones del desempleo y la producción, así como las medidas necesarias para mejorar el crecimiento económico a corto y a largo plazo. El funcionamiento del comercio internacional y las consecuencias del establecimiento de barreras al libre comercio. El crecimiento de los países en vías de desarrollo. Conceptos económicos básicos Beneficio: resultado de la diferencia de gastos e ingresos derivados de una actividad económica, si los gastos son mayores se producirán pérdidas. Bien: un bien es todo aquello que satisface una necesidad y tiene un valor. Servicio: es una prestación destinada a satisfacer una necesidad personal o social pero que no consiste en la producción de un objeto. Coste de la vida e inflación: el coste de la vida es la cuantía de los gastos mínimos indispensables para obtener los bienes y servicios básicos; para calcularlo se suma el valor de un conjunto de productos y con este resultado se define el IPC índice de precios de consumo. La subida de los precios de los productos es lo que llamamos inflación. Inversión y especulación: la inversión es la cantidad de dinero que se destina a iniciar un negocio o a mantenerlo y mejorarlo con el objeto de obtener un beneficio. Cuando se obtiene un rápido beneficio de una operación comercial basado solo en el precio de los bienes se habla de especulación. Mercado: conjunto de consumidores que demandan bienes y servicios al conjunto de los productores que los ofrecen. Producción y productividad: llamamos producción a los bienes y servicios generados por una actividad económica. La relación entre lo producido y los medios empleados determina la productividad. Si se obtiene una elevada productividad utilizando pocos medios, se dice que la producción es alta. Cuando se emplean muchos medios pero la productividad es pequeña, la producción es baja. Producto interior bruto (PIB) y PIB per cápita: el PIB es el valor total de los bienes y servicios producidos en un territorio durante todo un año. El PIB refleja la riqueza o renta generada en ese territorio, pero para conocer cuál es la riqueza o renta media de su población, es decir, PIB per cápita, hay que dividir el PIB del territorio considerado entre el número de sus habitantes. Este no considera la depreciación de los equipos, solo su valor inicial o nuevo, cuando se desea conocer el valor total menos la depreciación, se llama "PIN" Producto interno neto. Objetivos sociales de la economía Estabilidad económica: La estabilidad de los precios tiene que ver con evitar la inflación o deflación, ya que estas pueden causar desigualdades en la economía. Pleno empleo: El pleno empleo existe cuando se utilizan completamente los recursos que son escasos de una economía (mano de obra). Crecimiento económico sostenido, sin variaciones drásticas. Equidad económica: Las acciones y políticas económicas se evalúan tomando en cuenta lo que las personas consideran correcto e incorrecto, mediante la distribución conveniente de los recursos económicos, lo que va a permitir que estos recursos fueran combinados en la mejor manera posible para suministrar los bienes y servicios necesarios. Eficiencia económica: La eficiencia económica es el estado en el que un sistema económico logra y utiliza recursos escasos de una manera más productiva, generando mayores o mejores resultados en servicios o bienes, que los previstos, sin que se incremente los costos de producción. Libertad económica: Se refiere a aspectos como la libertad de los consumidores para decidir cómo gastar su dinero o ahorrarlo y la libertad de los trabajadores para cambiar de empleo. Crecimiento económico: Tiene que ver con el aumento en la producción de bienes y servicios a través del tiempo. Se relaciona con el ritmo de aumento de su población y su productividad. El crecimiento económico se mide según los cambios en el nivel del producto interno bruto real (PIB). Seguridad económica: Protege a los consumidores, productores y propietarios de los recursos de los riesgos que hay en la sociedad. Cada sociedad decide que riesgos son los que necesitan protección y si deben pagarlos los individuos, empresarios o gobierno. Distribución satisfactoria de los ingresos: Se refiere a una distribución acorde a las diferencias en la iniciativa, el esfuerzo y la habilidad. El estado sirve de equilibrio en la redistribución de la riqueza mediante su poder de gasto. Elementos de estudio de la economía 1- Factores de producción Tierra Trabajo Capital Organización y empresariedad 2- Agentes económicos Sector privado Sector público 3- Sectores de producción o actividad Sector primario Sector secundario Sector terciario Sector cuaternario Ramas en que se puede dividir la economía Economía teórica y empírica La economía teórica busca crear modelos que expliquen los fenómenos económicos (por ejemplo, el equilibrio general). La economía empírica busca la confirmación o refutación de tales modelos mediante experimentación o acceso a fuentes empíricas (por ejemplo, Historia económica). Microeconomía y macroeconomía La economía para su estudio se divide en dos campos: microeconomía y macroeconomía. La microeconomía se refiere al estudio de las elecciones que hacen individuos, empresas y gobiernos, denominados "agentes económicos"; es decir, su comportamiento ante la escasez. La microeconomía explica cómo se determinan variables como los precios de bienes y servicios, el nivel de salarios, el margen de beneficios y las variaciones de las rentas. Los agentes económicos tomarán decisiones intentando obtener la máxima satisfacción o utilidad posible. La macroeconomía se refiere al estudio del funcionamiento de la economía nacional y global. Analiza las variables agregadas, como el monto total de bienes y servicios producidos, el total de los ingresos, el nivel de empleo, de recursos productivos, la balanza de pagos, el tipo de cambio y el comportamiento general de los precios. Recientemente se han añadido los campos de la mesoeconomía y la metaeconomía. Sin embargo, no están plenamente consolidados como los dos anteriores. Economía normativa y economía positiva En las ciencias se distingue entre el análisis de lo que es y de lo que debiera ser, la economía distingue entre economía positiva que estudia lo que es (desde un punto de vista objetivo), en esta rama económica las proposiciones pueden demostrarse erróneas según las observaciones reales. Por el contrario la economía normativa estudia lo que debiera ser (desde un punto de vista subjetivo), así este enfoque depende de los juicios de valor de las personas. Economía ortodoxa y heterodoxa La economía ortodoxa o convencional es la que normalmente se enseña más en las universidades y trata mayoritariamente la tríada racionalidad-individualismo-equilibrio. La economía heterodoxa conforma un cuerpo más heterogéneo y divergente de análisis económico y abarca otros marcos como la tríada instituciones-historia-estructura social. Economía política y economía de empresa La economía política es el estudio de la producción y el comercio y sus relaciones con la ley, las costumbres y el gobierno, y con la distribución del ingreso nacional y la riqueza.​ Como disciplina, la economía política se originó en la filosofía moral en el para explorar la administración de la riqueza de los Estados. La economía de la empresa es el estudio de cómo dirigir recursos escasos de tal manera que se logre de la forma más eficiente posible una meta directiva. Contribuyendo a aumentar la rentabilidad y el valor actual de la empresa. La microeconomía es la rama de la teoría económica que estudia el comportamiento de los agentes económicos, es decir, de los inversores, las empresas, los consumidores y los trabajadores. La economía se centra también en el comportamiento de los individuos, su interacción ante determinados sucesos y el efecto que producen en su entorno. Por ejemplo, el efecto que producen en los precios, la producción, la riqueza o el consumo, entre otros. Es una ciencia social porque estudia la actividad y comportamiento humanos, que es un objeto de estudio altamente dinámico. El capitalismo es un sistema económico y social basado en que los medios de producción deben ser de propiedad privada, el mercado sirve como mecanismo para asignar los recursos escasos y el capital sirve como fuente para generar riqueza. Un sistema capitalista se basa principalmente en que la titularidad de los recursos productivos es de carácter privado. Multidisciplinariedad de la economía En la teoría neoclásica se tiene la concepción de lo económico como un sistema cerrado y autónomo en el que los otros subsistemas (político, tecnológico, social, ecológico, ...) entran como restricciones del sistema autónomo. No obstante, aunque ha habido resistencia a la introducción de factores además del mercado en los modelos teóricos, su influencia ha sido inevitable. Actualmente la economía se vale de distintas disciplinas para aportar una mayor consistencia lógica y empírica a sus proposiciones, así como para aumentar la capacidad de sus predicciones: La estadística y las matemáticas aplicadas para fundamentar ordenada, rigurosa y razonadamente cualquier argumento, hipótesis y teoría, así como para analizar datos y construir modelos descriptivos y de pronóstico sobre los fenómenos económicos. La ciencia de datos, el aprendizaje automático y la computación científica, que aportan modernas metodologías y potentes herramientas para la simulación computacional de hipótesis, así como para la recopilación, tratamiento, análisis de datos y modelado predictivo a partir de pequeñas, medianas y grandes cantidades de datos económicos (economic big data). Al respecto, la economía digital y la economía computacional son un claro ejemplo. La administración y la economía se relacionan en la cuestión del fenómeno económico pero abordado desde diferentes perspectivas, dado que mientras la economía enfatiza en la búsqueda de la comprensión de las leyes y principios que rigen la producción, distribución y consumo de bienes y servicios mediante el método científico, la administración busca comprender cómo las organizaciones pueden funcionar de la mejor manera para gestionar de manera concreta la producción, la distribución y/o el consumo de un determinado bien o servicio, comportándose esta última, más como una forma de tecnología social que como una ciencia en sentido estricto. La psicología para estudiar cómo interactúan y toman decisiones los agentes económicos en los mercados; qué motores motivan sus decisiones, y si estas suelen ser de carácter racional o no (economía conductual) La historia, con su respectivo campo de historia económica que estudia cómo los seres humanos han gestionado el cumplimiento de sus necesidades a lo largo de esta (mediante los denominados sistemas económicos). Dado que en economía no pueden realizarse experimentos, es una fuente empírica muy importante. La sociología que aplica marcos de referencia, variables y modelos sociológicos asociados con la distribución, producción, y consumo de bienes y servicios. La ciencia política que explica las relaciones de poder que intervienen en los procesos económicos para impedir o favorecer sus objetivos en la práctica. El derecho como orden jurídico que acota y establece el conjunto de comportamientos económicos permitidos, así como el reconocimiento de los derechos de propiedad, esenciales para la comprensión de la economía moderna. La filosofía para explicar cómo se determinan los objetivos y especular acerca del orden normativo, jurídico o moral que ha de subyacer a los objetivos y comportamientos económicos tanto de las personas físicas y jurídicas; así como su relación contractual con el Estado. Recientemente, investigaciones de disciplinas naturales como la neurociencia (neuroeconomía) o la física (econofísica) están tratando de aplicar los modelos y descripciones provenientes de tales ciencias para la explicación de los diferentes comportamientos económicos. La economía, es por tanto, un área de estudio tremendamente multidisciplinar que requiere un amplio abanico de conocimientos para su completa comprensión. Historia Los autores clásicos hablaban de Political Economy (Economía Política), no de Economics. Con el paso de los años, el uso del vocablo Economics se hizo cada vez mayor porque los economistas querían constituir una “ciencia auténtica” como la Física (Physics) o las Matemáticas (Mathematics). Nótese el sufijo de estas palabras en inglés. La razón de remontarnos a estos cambios en las palabras, es porque la Economía al intentar hacer ciencia pura como la Física, tomó nociones de ella: las partículas (agentes económicos), el principio de optimización (maximización de la utilidad y minimización de costos) y la convergencia al equilibrio (cuando las partículas se estabilizan en torno a unos precios). La metodología de investigación en Economía inicialmente consiste en estudiar el sistema “sin fricciones”, para después incorporarlas. Críticas Críticas generales "Ciencia lúgubre" es el apelativo que le fue dado a la economía por el historiador de la era victoriana Thomas Carlyle en el . Se dice que Carlyle le dio este nombre como respuesta a los escritos del reverendo Thomas Maltus, quien predijo que la catástrofe maltusiana en la que se predecía la inanición de gran parte de la humanidad por el crecimiento geométrico de la población frente al aritmético de la comida. A pesar de esto, la frase fue formulada por Carlyle en el contexto de un debate con John Stuart Mill acerca de la esclavitud, en el cual Carlyle argumentó a favor de esta, y Mill en contra. Algunos economistas, como John Stuart Mill o Léon Walras, mantienen que la producción de riqueza no debe asociarse con su distribución. En La Riqueza de las Naciones, Adam Smith señaló muchos problemas que son también sujeto de debate. Smith atacó repetidamente los grupos alineados políticamente que querían influir en los gobiernos a su favor. En los días de Smith, estos grupos eran referidos como "facciones políticas", pero ahora son llamados grupos de "intereses especiales", un término que puede englobar a banqueros internacionales, conglomeraciones corporativas, oligopolios, monopolios, organizaciones de comercio y otros grupos. La economía, como ciencia social, es independiente de la acción política de cualquier gobierno u organización tomadora de decisiones. A pesar de esto, muchos diseñadores de políticas o individuos con una posición alta que pueden influenciar las vidas de otras personas son conocidos por utilizar arbitrariamente una plétora de conceptos económicos y retórica como vehículos para legitimar agendas políticas y sistemas de valores, sin limitar sus observaciones a asuntos relevantes a su responsabilidad. La cercana relación de la práctica y teoría económica con la política es un foco de contienda que puede ensombrecer o distorsionar los principios menos pretenciosos de la economía, y normalmente se confunden con agendas sociales específicas y sistemas de valores. No obstante, la economía tiene un rol legítimo a la hora de informar y guiar la política gubernamental. Recordemos que esta proviene del viejo campo de la economía política. Algunos diarios académicos de economía están realizando mayores esfuerzos para conseguir un consenso en los economistas respecto a ciertas políticas con la esperanza de conseguir un ambiente más informado políticamente. Actualmente, existe un bajo grado de aprobación entre los economistas profesionales respecto a muchas políticas públicas. Asuntos de política que se destacaron en una reciente encuesta de los economistas de la AEA incluyen la restricción al comercio, seguridad social para aquellos que acaban desempleados por la competición internacional, la comida genéticamente modificada, reciclaje, seguro de salud (varias cuestiones), mala práctica médica, barreras a entrar la profesión médica, donaciones de órganos, comida insana, deducciones hipotecarias, impuestos sobre ventas de internet, casinos, y objetivos de inflación. En Steady State Economics (1977), Herman Daly argumenta que existen inconsistencias lógicas entre el énfasis puesto en el crecimiento económico y la disponibilidad limitada de recursos naturales. Cuestiones como la independencia del banco central, las políticas de este y la retórica en los discursos de sus gobernadores, o las premisas de la política macroeconómica monetaria o fiscal del Estado, son focos de are contienda y crítica. Deirdre McCloskey ha argumentado que muchos estudios empíricos son poco reportados, y ella y Stephen Ziliak argumentan que a pesar de que su crítica ha sido bien recibida, la práctica no ha mejorado. Esta última contienda es controversial. Un estudio de 2002 del Fondo Monetario Internacional observó las "predicciones consensuadas" (predicciones de grandes grupos de economistas) que se hicieron antes de 60 recesiones nacionales diferentes en los años 1990: en el 97% de los casos los economistas no fueron capaces de predecir la contracción de un año más tarde. En las raras ocasiones en las que los economistas predijeron las recesiones de forma exitosa, subestimaron significativamente su severidad. Críticas de los supuestos La economía neoclásica se ha criticado bastante debido a que depende de ciertos supuestos irreales, inverificables, o altamente simplificados, que en algunos casos no hacen más que simplificar las pruebas para la conclusión deseada (no la verdadera). Ejemplos de estas asunciones incluyen la información perfecta, La maximización de beneficios y la teoría de la elección racional.Friedman, Milton (1953), "The Methodology of Positive Economics", Essays in Positive Economics, University of Chicago Press, pp. 14-15, 22, 31. • Boland, Lawrence A. (2008). "assumptions controversy", The New Palgrave Dictionary of Economics, 2nd Edition Online abstract. Accessed May 30, 2008. El campo de la economía de la información incluye tanto investigaciones económico matemáticas como de economía conductual, emparentada con los estudios en la psicología del comportamiento. Sin embargo, economistas prominentes de la corriente principal como Keynes y Joskow han observado que gran parte de la economía es conceptual, más que cuantitativa, y difícil de modelizar y formalizar cuantitativamente. En una discusión acerca de la investigación del oligopolio, Paul Joskow señaló en 1975 que en la práctica los estudiantes serios de las economías tienden a usar "modelos informales" basados en factores cualitativos específicos de industrias particulares. Joskow tenía un sentimiento fuerte que el importante trabajo en oligopolios estaba hecho a través de observaciones informales mientras que los modelos formales fueron "sacados a relucirex post". Argumentó que los modelos formas eran poco importantes en el trabajo empírico, y el factor fundamental detrás de la teoría de la empresa, el comportamiento, fue negado. Philip Mirowski observa que: En una serie de estudios revisados en revistas y conferencias, y libros publicados a lo largo de varias décadas, John McMurtry ha criticado largamente aquello que denomina "suposiciones sin examinar de la economía, y su consecuente costo para la vida de las personas." Nassim Nicholas Taleb y Michael Perelman son dos escolares más que han criticado la economía convencional o "mainstream". Taleb se opone a la mayoría de la teorización económica, que desde su punto de vista sufre agudamente del sobreuso de la Teoría Platónica de las Formas, y llama a la cancelación del Premio Nobel de Economía, afirmando que el daño de las teorías económicas puede ser devastador. Michael Perelman ha aportado una gran cantidad de críticas a la economía neoclásica y sus asunciones en sus libros (y especialmente en sus libros escritos a partir de 2000), además de en artículos y entrevistas. A pesar de estos problemas, los programas convencionales de graduado en economía se están haciendo más técnicos y matemáticos.Sutter, Daniel, and Rex Pjesky (2007). "Where Would Adam Smith Publish Today? The Near Absence of Math-free Research in Top Journals," Econ Journal Watch, 4(2), pp. 230-240. Abstract. Retrieved 2013-04-04. Economía para filósofos La economía, para Aristóteles, es la ciencia que se ocupa de la manera en que se administran unos recursos o el empleo de los recursos existentes con el fin de satisfacer las necesidades que tienen las personas y los grupos humanos. Su objeto de estudio es la actividad humana y, por tanto, es una ciencia social. Las ciencias sociales se diferencian de las ciencias puras o naturales en que sus afirmaciones no pueden refutarse o convalidarse mediante un experimento en laboratorio y, por tanto, usan una diferente modalidad del método científico. De aquí su complejidad y alto nivel de incertidumbre, valiéndose de aproximaciones, o al menos definiendo la tendencia en el comportamiento de las variables económicas. Por otra parte, el sujeto de estudio es altamente dinámico, por lo que es arriesgado aventurarse a predecir sus comportamientos con precisión. Por otra parte, las nociones que derivan de lo que “debe ser” la economía son propias de la economía normativa y, como tales, no pueden probarse. La ciencia económica está siempre justificada por el deseo humano de satisfacer sus propios fines. Este aspecto de la definición propuesta por Robbins es discutible y probablemente es el que menos se ha desarrollado en toda la historia del análisis económico salvo, acaso, por la Escuela Austríaca y especialmente para la producción de otros bienes y servicios. Este concepto de coste, más allá del puro concepto monetario, es propio de los economistas y se conoce como coste de oportunidad. Para asignar los recursos debe existir un criterio que permita comenzar a realizar las pruebas sociales y económicas. Principales escuelas del pensamiento económico Véase también Bien económico Dinero Oferta y demanda Política económica Referencias Bibliografía Microeconomics (March 2004), with Robin Wells. ISBN 0-7167-5997-7 Economics, first edition (December 2005), with Robin Wells. ISBN 1-57259-150-1 Macroeconomics (February 2006), with Robin Wells. ISBN 0-7167-6763-5 Economics: European Edition (Spring 2007), with Robin Wells and Kathryn Graddy. ISBN 0-7167-9956-1 Economics, second edition (2009), with Robin Wells. ISBN 0-7167-7158-6 International Economics: Theory and Policy'', with Maurice Obstfeld. 7th Edition (2006), ISBN 0-321-29383-5; 1st Edition (1998), ISBN 0-673-52186-9. Enlaces externos Economía
531_0
Electricidad
La electricidad (del griego ήλεκτρον élektron, cuyo significado es ‘ámbar’) es el conjunto de fenómenos físicos relacionados con la presencia y flujo de cargas eléctricas. Se manifiesta en una gran variedad de fenómenos como los rayos, la electricidad estática, la inducción electromagnética o el flujo de corriente eléctrica. Es una forma de energía tan versátil que tiene un sinnúmero de aplicaciones, por ejemplo: transporte, climatización, iluminación e Informática. La electricidad se manifiesta mediante varios fenómenos y propiedades físicas: Carga eléctrica: una propiedad de algunas partículas subatómicas, que determina su interacción electromagnética. La materia eléctricamente cargada produce y es influida por los campos electromagnéticos. Corriente eléctrica: el flujo de electrones que circula por un conductor en un determinado momento. Se mide en amperios. Campo eléctrico: un tipo de campo electromagnético producido por una carga eléctrica, incluso cuando no se está moviendo. El campo eléctrico produce una fuerza en toda otra carga, menor cuanto mayor sea la distancia que separa las dos cargas. Además, las cargas en movimiento producen campos magnéticos. Potencial eléctrico: es el trabajo que debe realizar una fuerza externa para atraer una carga positiva unitaria que desde el punto de referencia hasta el punto considerado, va en contra de la fuerza eléctrica y a velocidad constante. Magnetismo: la corriente eléctrica produce campos magnéticos, y los campos magnéticos variables en el tiempo generan corriente eléctrica. Historia Usos La electricidad se usa para generar: luz, mediante bombillas en lámparas y otros objetos lumínicos. calor, aprovechando el efecto Joule. movimiento, mediante motores que transforman la energía eléctrica en energía mecánica Señales, mediante sistemas electrónicos, compuestos de circuitos eléctricos que incluyen componentes activos (tubos de vacío, transistores, diodos y circuitos integrados) y componentes pasivos como resistores, inductores y condensadores. Conceptos Carga eléctrica Artículo principal: Carga eléctrica. Véanse también: Electrón, Protón e Ion. La carga eléctrica es una propiedad de la materia que se manifiesta mediante fuerzas de atracción y repulsión. La carga se origina en el átomo, que está compuesto de partículas subatómicas cargadas como el electrón y el protón. La carga puede transferirse entre los cuerpos por contacto directo o al pasar por un material conductor, generalmente metálico. El término electricidad estática se refiere a la presencia de carga en un cuerpo, por lo general causado por dos materiales distintos que se frotan entre sí, transfiriéndose carga uno al otro. La presencia de carga da lugar a la fuerza electromagnética: una carga ejerce una fuerza sobre las otras. Este efecto era conocido en la antigüedad, pero no comprendido. Una bola liviana, suspendida de un hilo, podía cargarse al contacto con una barra de vidrio cargada previamente por fricción con un tejido. Se encontró que si una bola similar se cargaba con la misma barra de vidrio, se repelían entre sí. A finales del , Charles-Augustin de Coulomb investigó este fenómeno. Dedujo que la carga se manifiesta de dos formas opuestas. Este descubrimiento trajo el conocido axioma «objetos con la misma polaridad se repelen y con diferente polaridad se atraen». La fuerza actúa en las partículas cargadas entre sí, y además la carga tiene tendencia a extenderse sobre una superficie conductora. La magnitud de la fuerza electromagnética, ya sea atractiva o repulsiva, se expresa por la ley de Coulomb, que relaciona la fuerza con el producto de las cargas y tiene una relación inversa al cuadrado de la distancia entre ellas. La fuerza electromagnética es muy fuerte, la segunda después de la interacción nuclear fuerte, con la diferencia que esa fuerza opera sobre todas las distancias. En comparación con la débil fuerza gravitacional, la fuerza electromagnética que aleja a dos electrones es 1042 veces más grande que la atracción gravitatoria que los une. Una carga puede expresarse como positiva o negativa. Las cargas de los electrones y de los protones tienen signos contrarios. Por convención, la carga que tiene electrones se asume negativa y la de los protones, positiva, una costumbre que empezó con el trabajo de Benjamin Franklin. La cantidad de carga se representa por el símbolo Q y se expresa en culombios. Todos los electrones tienen la misma carga, aproximadamente de -1.6022×10−19 culombios. El protón tiene una carga igual pero de signo opuesto +1.6022×10−19 coulombios. La carga no solo está presente en la materia, sino también en la antimateria: cada antipartícula tiene una carga igual y opuesta a su correspondiente partícula. La carga puede medirse de diferentes maneras. Un instrumento muy antiguo es el electroscopio, que aún se usa para demostraciones en las aulas, aunque ahora está superado por el electrómetro electrónico. Corriente eléctrica Se conoce como corriente eléctrica al desplazamiento de cargas eléctricas por un conductor. La corriente puede estar producida por cualquier partícula cargada eléctricamente en movimiento. Lo más frecuente es que sean electrones, pero cualquier otra carga en movimiento se puede definir como corriente. Según el Sistema Internacional, la intensidad de una corriente eléctrica se mide en amperios, cuyo símbolo es A. Históricamente, la corriente eléctrica se definió como un flujo de cargas positivas y se fijó como sentido convencional de circulación de la corriente el flujo de cargas desde el polo positivo al negativo. Más adelante se observó que, en los metales, los portadores de carga son electrones, con carga negativa, y que se desplazan en sentido contrario al convencional. Lo cierto es que, dependiendo de las condiciones, una corriente eléctrica puede consistir en un flujo de partículas cargadas en una dirección, o incluso simultáneamente en ambas direcciones. La convención positivo-negativo se usa normalmente para simplificar esta situación. El proceso por el cual la corriente eléctrica circula por un material se llama conducción eléctrica. Su naturaleza varía, dependiendo de las partículas cargadas y el material por el cual están circulando. Ejemplos de corrientes eléctricas son la conducción metálica, donde los electrones recorren un conductor eléctrico, como un metal; y la electrólisis, donde los iones (átomos cargados) fluyen a través de líquidos. Mientras que las partículas pueden moverse muy despacio, algunas veces con una velocidad media de deriva de solo fracciones de milímetro por segundo, el campo eléctrico que las controla se propaga cercano a la velocidad de la luz, permitiendo que las señales eléctricas se transmitan rápidamente por los cables. La corriente produce muchos efectos visibles, que han hecho que su presencia se reconozca a lo largo de la historia. En 1800, Nicholson y Carlisle descubrieron que el agua podía descomponerse por la corriente de una pila voltaica, en un proceso que se conoce como electrólisis. En 1833, Michael Faraday amplió este trabajo. En 1840, James Prescott Joule descubrió que la corriente a través de una resistencia eléctrica aumenta la temperatura, fenómeno que en la actualidad se denomina Efecto Joule. Campo eléctrico El concepto de campo eléctrico fue introducido por Michael Faraday. Un campo eléctrico se crea por un cuerpo cargado en el espacio que lo rodea, y produce una fuerza que ejerce sobre otras cargas ubicadas en el campo. Un campo eléctrico actúa entre dos cargas de modo muy parecido al campo gravitatorio que actúa sobre dos masas. Como él, se extiende hasta el infinito y su valor es inversamente proporcional al cuadrado de la distancia. Sin embargo, hay una diferencia importante: mientras la gravedad siempre actúa como atracción, el campo eléctrico puede producir atracción o repulsión. Si un cuerpo grande como un planeta no tiene carga neta, el campo eléctrico a una distancia determinada es cero. Por ello, la gravedad es la fuerza dominante en el universo, a pesar de ser mucho más débil. Un campo eléctrico varía en el espacio, y su intensidad en cualquier punto se define como la fuerza (por unidad de carga) que percibiría una carga si estuviera ubicada en ese punto. La carga de prueba debe de ser insignificante, para evitar que su propio campo afecte el campo principal y también debe ser estacionaria para evitar el efecto de los campos magnéticos. Como el campo eléctrico se define en términos de fuerza, y una fuerza es un vector, entonces el campo eléctrico también es un vector, con magnitud y dirección. Específicamente, es un campo vectorial. Potencial eléctrico El concepto de potencial eléctrico tiene mucha relación con el de campo eléctrico. Una carga pequeña ubicada en un campo eléctrico experimenta una fuerza, y para llevar esa carga a ese punto en contra de la fuerza necesita hacer un trabajo. El potencial eléctrico en cualquier punto se define como la energía requerida para mover una carga de ensayo ubicada en el infinito a ese punto. Por lo general se mide en voltios, donde un voltio es el potencial que necesita un julio de trabajo para atraer una carga de un culombio desde el infinito. Esta definición formal de potencial tiene pocas aplicaciones prácticas. Un concepto más útil es el de diferencia de potencial, que se define como la energía requerida para mover una carga entre dos puntos específicos. El campo eléctrico tiene la propiedad especial de ser conservativo, es decir que no importa la trayectoria realizada por la carga de prueba; todas las trayectorias entre dos puntos específicos consumen la misma energía, y además con un único valor de diferencia de potencial. Electromagnetismo Se denomina electromagnetismo a la teoría física que unifica los fenómenos eléctricos y magnéticos. Sus fundamentos son obra de Faraday, pero fueron formulados por primera vez de modo completo por Maxwell, mediante cuatro ecuaciones diferenciales vectoriales, conocidas como ecuaciones de Maxwell. Relacionan el campo eléctrico, el campo magnético y sus respectivas fuentes materiales: densidad de carga eléctrica, corriente eléctrica, desplazamiento eléctrico y corriente de desplazamiento. A principios del , Ørsted encontró evidencia empírica de que los fenómenos magnéticos y eléctricos estaban relacionados. A partir de esa base, en 1861 Maxwell unificó los trabajos de Ampère, Sturgeon, Henry, Ohm y Faraday, en un conjunto de ecuaciones que describían ambos fenómenos como uno solo, el fenómeno electromagnético. Se trata de una teoría de campos. Sus explicaciones y predicciones se basan en magnitudes físicas vectoriales, que dependen de la posición en el espacio y del tiempo. El electromagnetismo describe los fenómenos físicos macroscópicos en los que intervienen cargas eléctricas en reposo y en movimiento, usando para ello campos eléctricos y magnéticos y sus efectos sobre la materia. Circuitos eléctricos Un circuito eléctrico es una interconexión de dos o más componentes eléctricos tales que la carga eléctrica fluye en una trayectoria cerrada, por lo general para ejecutar alguna tarea útil. Los componentes en un circuito eléctrico pueden ser muy variados, puede tener elementos como resistores, capacitores, interruptores, enchufes, transformadores y electrónicos. Los circuitos electrónicos contienen componentes activos, normalmente semiconductores, exhibiendo un comportamiento no lineal, que requiere análisis complejos. Los componentes eléctricos más simples son los pasivos y lineales. El comportamiento de los circuitos eléctricos que contienen solamente resistencias y fuentes electromotrices de corriente continua está gobernado por las leyes de Kirchhoff. Para estudiarlo, el circuito se descompone en mallas eléctricas, estableciendo un sistema de ecuaciones lineales cuya resolución brinda los valores de las tensiones y corrientes que entran o salen de sus nudos. La resolución de circuitos de corriente alterna requiere la ampliación del concepto de resistencia eléctrica, ahora ampliado por el de impedancia para incluir los comportamientos de bobinas y condensadores. La resolución de estos circuitos puede hacerse con generalizaciones de las leyes de Kirchoff, pero requiere usualmente métodos matemáticos avanzados, como el de Transformada de Laplace, para describir los comportamientos transitorios y estacionarios de los mismos. Propiedades de la electricidad Origen microscópico La posibilidad de transmitir una corriente eléctrica en los materiales depende de la estructura e interacción de los átomos que los componen. Los átomos están constituidos por partículas cargadas positivamente (los protones), negativamente (los electrones) y neutras (los neutrones). La conducción eléctrica en los conductores, semiconductores, y aislantes, se debe a los electrones de la órbita exterior o portadores de carga, ya que tanto los neutrones interiores como los protones de los núcleos atómicos no pueden desplazarse con facilidad. Los materiales conductores por excelencia son metales que normalmente tienen un único electrón en la última capa electrónica, como el cobre. Estos electrones pueden pasar con facilidad a átomos contiguos, constituyendo los electrones libres responsables del flujo de corriente eléctrica. En todos los materiales sometidos a campos eléctricos se modifican, en mayor o menor grado, las distribuciones espaciales relativas de las cargas negativas y positivas. Este fenómeno se denomina polarización eléctrica y es más notorio en los aislantes eléctricos debido a que gracias a este fenómeno se impide liberar cargas, y por lo tanto no conducen, característica principal de estos materiales. Conductividad y resistividad La conductividad eléctrica es la propiedad de los materiales que cuantifica la facilidad con que las cargas pueden moverse cuando un material es sometido a un campo eléctrico. La resistividad es una magnitud inversa a la conductividad, aludiendo al grado de dificultad que encuentran los electrones en sus desplazamientos, dando una idea de lo buen o mal conductor que es. Un valor alto de resistividad indica que el material es mal conductor mientras que uno bajo indicará que es un buen conductor. Generalmente la resistividad de los metales aumenta con la temperatura, mientras que la de los semiconductores disminuye ante el aumento de la temperatura. Los materiales se clasifican según su conductividad eléctrica o resistividad en conductores, dieléctricos, semiconductores y superconductores. Conductores eléctricos. Son los materiales que, puestos en contacto con un cuerpo cargado de electricidad, transmiten esta a todos los puntos de su superficie. Los mejores conductores eléctricos son los metales y sus aleaciones. Existen otros materiales, no metálicos, que también poseen la propiedad de conducir la electricidad, como son el grafito, las soluciones salinas (por ejemplo, el agua de mar) y cualquier material en estado de plasma. Para el transporte de la energía eléctrica, así como para cualquier instalación de uso doméstico o industrial, el metal más empleado es el cobre en forma de cables de uno o varios hilos. Alternativamente se emplea el aluminio, metal que si bien tiene una conductividad eléctrica del orden del 60% de la del cobre es, sin embargo, un material mucho menos denso, lo que favorece su empleo en líneas de transmisión de energía eléctrica en las redes de alta tensión. Para aplicaciones especiales se utiliza como conductor el oro. Dieléctricos. Son los materiales que no conducen la electricidad, por lo que pueden ser utilizados como aislantes. Algunos ejemplos de este tipo de materiales son vidrio, cerámica, plásticos, goma, mica, cera, papel, madera seca, porcelana, algunas grasas para uso industrial y electrónico y la baquelita. Aunque no existen materiales absolutamente aislantes o conductores, sino mejores o peores conductores, son materiales muy utilizados para evitar cortocircuitos (forrando con ellos los conductores eléctricos, para mantener alejadas del usuario determinadas partes de los sistemas eléctricos que, de tocarse accidentalmente cuando se encuentran en tensión, pueden producir una descarga) y para confeccionar aisladores (elementos utilizados en las redes de distribución eléctrica para fijar los conductores a sus soportes sin que haya contacto eléctrico). Algunos materiales, como el aire o el agua, son aislantes bajo ciertas condiciones pero no para otras. El aire, por ejemplo, es aislante a temperatura ambiente y seco pero, bajo condiciones de frecuencia de la señal y potencia relativamente bajas, puede convertirse en conductor. Producción y usos de la electricidad Generación y transmisión Hasta la invención de la pila voltaica en el (Alessandro Volta, 1800) no se tenía una fuente viable de electricidad. La pila voltaica (y sus descendientes modernos, la pila eléctrica y la batería eléctrica), almacenaba energía químicamente y la entregaba según la demanda en forma de energía eléctrica. La batería es una fuente común muy versátil que se usa para muchas aplicaciones, pero su almacenamiento de energía es limitado, y una vez descargado debe ser recargada (o, en el caso de la pila, reemplazada). Para una demanda eléctrica mucho más grande la energía debe generarse y transmitirse continuamente por líneas de transmisión conductoras. Por lo general, la energía eléctrica se genera mediante generadores electromecánicos que son dispositivos que utilizan el movimiento para mantener una diferencia de potencial eléctrica entre dos puntos. Es decir que transforman la energía mecánica en eléctrica. Esta transformación se consigue por la acción de un campo magnético sobre los conductores eléctricos. Si se produce mecánicamente un movimiento relativo entre los conductores y el campo, se generará una fuerza electromotriz (FEM). Este sistema está basado en la ley de Faraday. Para lograr el movimiento se utiliza el del aire (eólica), agua (hidráulica), vapor u otros gases (térmica). La moderna turbina de vapor inventada por Charles Algernon Parsons en 1884 genera cerca del 80% de la energía eléctrica en el mundo usando una gran variedad de fuentes de energía. Otro dispositivo que genera electricidad es la célula fotovoltaica, y lo hace directamente a partir de la radiación solar mediante un dispositivo semiconductor. Los conductores de electricidad ofrecen siempre una resistencia al paso de esta, por pequeña que sea, de modo que en el transporte se pierde carga eléctrica; a mayor distancia, mayor pérdida. Un aumento de tensión significa una disminución de la intensidad que circula por la línea, para transportar la misma potencia, y por tanto, las pérdidas por calentamiento de los conductores y por efectos electromagnéticos y, en consecuencia, menor pérdida energética. En consecuencia pueden utilizarse secciones menores de los conductores que la transportan, por eso, para llevar electricidad a grandes distancias, se debe hacer en la llamada Alta Tensión. Por el contrario en el uso corriente se debe emplear una tensión más reducida (normalmente entre 110 V y 240 V) y eso implica cambios (tranformaciones) de tensión. La invención a finales del del transformador permitió transmitir la energía eléctrica de una forma más eficiente. La transmisión eléctrica eficiente hizo posible generar electricidad en plantas generadoras, para después trasportarla a largas distancias, donde fuera necesaria. Debido a que la energía eléctrica no puede ser almacenada fácilmente para atender la demanda a una escala nacional, la mayoría de las veces se produce la misma cantidad que la que se demanda. Esto requiere de una bolsa eléctrica que hace predicciones de la demanda eléctrica, y mantiene una coordinación constante con las plantas generadoras. Se mantiene una cierta reserva de capacidad de generación en reserva para soportar cualquier anomalía en la red. Aplicaciones de la electricidad La electricidad tiene un sinfín de aplicaciones tanto para uso doméstico, industrial, medicinal y en el transporte. Solo para citar se puede mencionar a la iluminación y alumbrado, electrodomésticos, producción de calor, electrónica, robótica, telecomunicaciones, señales luminosas, climatización, máquinas frigoríficas, electrosoldadura, electroimanes, electroquímica, electroválvulas. También se aplica la inducción electromagnética para la construcción de motores movidos por energía eléctrica, que permiten el funcionamiento de innumerables dispositivos. Electricidad en la naturaleza Mundo inorgánico Descargas eléctricas atmosféricas El fenómeno eléctrico más común del mundo inorgánico son las descargas eléctricas atmosféricas denominadas rayos y relámpagos. Debido al rozamiento de las partículas de agua o hielo con el aire, se produce la creciente separación de cargas eléctricas positivas y negativas en las nubes, separación que genera campos eléctricos. Cuando el campo eléctrico resultante supera la rigidez dieléctrica del medio, se produce una descarga entre dos partes de una nube, entre dos nubes diferentes o entre la parte inferior de una nube y tierra. Esta descarga ioniza el aire por calentamiento y excita transiciones electrónicas moleculares. La brusca dilatación del aire genera el trueno, mientras que el decaimiento de los electrones a sus niveles de equilibrio genera radiación electromagnética, es decir, luz. Campo magnético terrestre Aunque no se puede verificar experimentalmente, la existencia del campo magnético terrestre se debe casi seguramente a la circulación de cargas en el núcleo externo líquido de la Tierra. La hipótesis de su origen en materiales con magnetización permanente, como el hierro, parece desmentida por la constatación de las inversiones periódicas de su sentido en el transcurso de las eras geológicas, donde el polo norte magnético es remplazado por el sur y viceversa. Medido en tiempos humanos, sin embargo, los polos magnéticos son estables, lo que permite su uso, mediante el antiguo invento chino de la brújula, para la orientación en el mar y en la tierra. El campo magnético terrestre desvía las partículas cargadas provenientes del Sol (viento solar). Cuando esas partículas chocan con los átomos y moléculas de oxígeno y nitrógeno de la magnetosfera, se produce un efecto fotoeléctrico mediante el cual parte de la energía de la colisión excita los átomos a niveles de energía tales que cuando dejan de estar excitados devuelven esa energía en forma de luz visible. Este fenómeno puede observarse a simple vista en las cercanías de los polos, en las auroras polares. Mundo orgánico Uso biológico El bioelectromagnetismo estudia el fenómeno consistente en la producción de campos electromagnéticos producidos por la materia viva (células, tejidos u organismos). Los ejemplos de este fenómeno incluyen el potencial eléctrico de las membranas celulares y las corrientes eléctricas que fluyen en nervios y músculos como consecuencia de su potencial de acción. Algunos organismos, como los tiburones, tienen la capacidad de detectar y responder a los cambios de los campos eléctricos, una habilidad conocida como electrorrecepción. Mientras que otros, denominados electrogénicos, son capaces de producir grandes descargas eléctricas con fines defensivos u ofensivos. Algunos peces, como las anguilas y las rayas eléctricas pueden generar tensiones de hasta dos mil voltios y corrientes superiores a 1 A. El potencial de acción también es responsable de la coordinación de actividades en ciertas plantas. Véase también Batería eléctrica Cálculo de secciones de líneas eléctricas Electrónica Ingeniería eléctrica Energía eléctrica Historia de la electricidad Generación de energía eléctrica Mediciones eléctricas Choque Eléctrico Sistema de suministro eléctrico Tensión (electricidad) Termoelectricidad Electromecánica Nikola Tesla Referencias Bibliografía Enlaces externos Historia de la tracción eléctrica (consultado el 1 de julio de 2008).
536_0
Ecología
La ecología es la rama de la biología que estudia las relaciones de los diferentes seres vivos entre sí y su relación con el entorno: «la biología de los ecosistemas». Estudia cómo estas interacciones entre los organismos y su ambiente afectan a propiedades como la distribución o la abundancia. En el ambiente se incluyen las propiedades físicas y químicas que pueden ser descritas como la suma de factores abióticos locales, como el clima y la geología, y los demás organismos que comparten ese hábitat (factores bióticos). Los ecosistemas están compuestos de partes que interactúan dinámicamente entre ellas junto con los organismos, las comunidades que integran, y también los componentes no vivos de su entorno. Los procesos del ecosistema, como la producción primaria, la pedogénesis, el ciclo de nutrientes, y las diversas actividades de construcción del hábitat, regulan el flujo de energía y materia a través de un entorno. Estos procesos se sustentan en los organismos con rasgos específicos históricos de la vida, y la variedad de organismos que se denominan biodiversidad. La visión integradora de la ecología plantea el estudio científico de los procesos que influyen en la distribución y abundancia de los organismos, así como las interacciones entre los organismos y la transformación de los flujos de energía. La ecología es un campo interdisciplinario que incluye a la biología y las ciencias de la Tierra. La ecología evolucionó a partir de la historia natural de los antiguos filósofos griegos, como Hipócrates, Aristóteles y Teofrasto, sentando las bases de la ecología en sus estudios sobre la historia natural. Las bases posteriores para la ecología moderna se establecieron en los primeros trabajos de los fisiólogos de plantas y animales. Los conceptos evolutivos sobre la adaptación y la selección natural se convirtieron en piedras angulares de la teoría ecológica moderna transformándola en una ciencia más rigurosa en el . Está estrechamente relacionada con la biología evolutiva, la genética y la etología. La comprensión de cómo la biodiversidad afecta a la función ecológica es un área importante enfocada en los estudios ecológicos. Historia El término ökologie fue acuñado en 1869 por el naturalista y filósofo alemán Ernst Haeckel a partir de las palabras griegas oikos (casa, vivienda, hogar) y logos (estudio o tratado); por ello ecología significa «el estudio del hogar». En un principio, Haeckel entendía por ecología la ciencia que estudia las relaciones de los seres vivos con su ambiente, pero más tarde amplió esta definición al estudio de las características del medio, que también incluye el transporte de materia y energía, y su transformación por las comunidades biológicas. Precursores Hay que reconocer a los biólogos y geógrafos el papel fundamental en los inicios de la ecología. Es importante recordar el aporte considerable de los griegos clásicos. Por ejemplo, Aristóteles, además de filósofo, fue un biólogo y naturalista de gran talla. Baste citar sus libros sobre la vida y costumbres de los peces, fruto de sus diálogos con pescadores, y sus largas horas de observación personal. Su discípulo Teofrasto describió por primera vez las interrelaciones entre organismos y su entorno. Las primeras concepciones de la ecología, como el equilibrio y la regulación en la naturaleza, se remontan a Heródoto, quien describió uno de los primeros relatos del mutualismo en su observación de la "ontología natural". Si nos trasladamos al , cuando la biología y la geografía recién se estaban transformando en las ciencias modernas que hoy conocemos, es imprescindible reconocer el carácter absolutamente ecológico del trabajo de los fisiologistas en su progresivo descubrimiento de las relaciones entre la vida vegetal y animal con los factores abióticos tales como la luz, el agua o el carbono. Entre los diferentes ejemplos posibles, es suficiente recordar las investigaciones de René Antoine Ferchault de Réaumur en el campo de la temperatura, así como las de Anton van Leeuwenhoek acerca de la formación del almidón en las plantas verdes. Destacan también en esta época, los trabajos de Louis Receveur, botánico , geólogo , químico , meteorólogo, astrónomo y sacerdote francés. También se realizaron durante el siglo algunos de los grandes viajes científicos que permitieron un conocimiento más metodológico de los paisajes geográficos de los diversos continentes, ejemplo entre otros de Georges-Louis Leclerc de Buffon, autor de los primeros tratados de biología y geología no basados en la Biblia; o de Alexander von Humboldt, que exploró y estudió durante cinco años las tierras de América Latina. El papel de los precursores del evolucionismo es asimismo fundamental, porque intuían que no había ningún tipo de predeterminismo en la gran variedad de especies vivientes existentes, sino progresivas adaptaciones ambientales. Erasmus Darwin, abuelo del universalmente famoso Charles Darwin, predijo algunas de las grandes tesis evolucionistas que desarrolló años más tarde su nieto y que influyeron de modo decisivo en las corrientes de pensamiento del . Sin duda alguna, la polémica entre deterministas y evolucionistas fue uno de los principales debates científicos del , enfrentando a hombres de la categoría de Cuvier, Owen, Agassiz y Kölliker, contra los nuevos «transformistas» como Lamarck, Darwin, Spencer, Müller, Haeckel, etc. El calor de la polémica fue muy fecundo, porque exigió de los transformistas que multiplicaran sus observaciones para justificar las nuevas teorías del evolucionismo. En alguno de ellos se manifestó una conversión forzada por las evidencias; por ejemplo en el científico galés Richard Owen, que aun siendo vivamente adversario de la nueva teoría evolucionista, realizó descubrimientos que él mismo no podía justificar si no era recurriendo a la teoría de Darwin. Objeto de estudio La ecología es la rama de la biología que estudia las interacciones de los seres vivos con su hábitat. Esto incluye factores abióticos, esto es, condiciones ambientales tales como: climatológicas, edáficas, etc.; pero también incluye factores bióticos, esto es, condiciones derivadas de las relaciones que se establecen con otros seres vivos. Mientras que otras ramas se ocupan de niveles de organización inferiores (desde la bioquímica y la biología molecular pasando por la biología celular, la histología y la fisiología hasta la sistemática), la ecología se ocupa del nivel superior a estas, ocupándose de las poblaciones, las comunidades, los ecosistemas y la biosfera. Por esta razón, y por ocuparse de las interacciones entre los individuos y su ambiente, la ecología es una ciencia multidisciplinaria que utiliza herramientas de otras ramas de la ciencia, especialmente geología, meteorología, geografía, sociología, física, química y matemáticas. Los ecólogos tratan de explicar: Los procesos de la vida, interacciones y adaptaciones El movimiento de materiales y energía a través de las comunidades vivas La sucesión ecológica de los ecosistemas La abundancia y la distribución de los organismos y de la biodiversidad en el contexto del medio ambiente. Hay muchas aplicaciones prácticas de la ecología en biología de la conservación, manejo de los humedales, manejo de recursos naturales (la agroecología, la agricultura, la silvicultura, la agroforestería, la pesca), la planificación de la ciudad (ecología urbana), la salud comunitaria, la economía, la ciencia básica aplicada, y la interacción social humana (ecología humana). Los organismos (incluidos los seres humanos) y los recursos componen los ecosistemas que, a su vez, mantienen los mecanismos de retroalimentación biofísicos son componentes del planeta que moderan los procesos que actúan sobre la vida (bióticos) y no vivos (abióticos). Los ecosistemas sostienen funciones que sustentan la vida y producen el capital natural como la producción de biomasa (alimentos, combustibles, fibras y medicamentos), los ciclos biogeoquímicos globales, filtración de agua, la formación del suelo, control de la erosión, la protección contra inundaciones y muchos otros elementos naturales de interés científico, histórico o económico. Los trabajos de investigación en esta disciplina se diferencian con respecto de la mayoría de los trabajos en las demás ramas de la Biología por su mayor uso de herramientas matemáticas, como la estadística y los modelos matemáticos. Además, la comprensión de los procesos ecológicos se basa fuertemente en los postulados evolutivos . Principios y conceptos Teoría de sistemas Ciclo biogeoquímico Niveles de organización Para los ecólogos modernos , la ecología puede ser estudiada a varios niveles o escalas: Organismo (las interacciones de un ser vivo dado con las condiciones abióticas directas que lo rodean) Población (las interacciones de un ser vivo dado con los seres de su misma especie) Comunidad (las interacciones de una población dada con las poblaciones de especies que la rodean) Ecosistema (las interacciones propias de la biocenosis sumadas a todos los flujos de materia y energía que tienen lugar en ella) Biosfera (el conjunto de todos los seres vivos conocidos) Cadena trófica La cadena alimenticia o cadena trófica señala las relaciones alimenticias entre productores,consumidores y descomponedores. En otras palabras, la cadena refleja quién se come a quién. Las cadenas tróficas, son una serie de cadenas alimentarias íntimamente relacionadas por las que circulan energía y materiales en un ecosistema. Se entiende por cadena alimentaria cada una de las relaciones alimenticias que se establecen de forma lineal entre organismos que pertenecen a distintos niveles tróficos. La cadena trófica está dividida en dos grandes categorías: la cadena o red de pastoreo, que se inicia con las plantas verdes, algas o plancton que realiza la fotosíntesis, y la cadena o red de detritos que comienza con los detritos orgánicos. Estas redes están formadas por cadenas alimentarias independientes. En la red de pastoreo, los materiales pasan desde las plantas a los consumidores de plantas (herbívoros) y de estos a los consumidores de carne (carnívoros). En la red de detritos, los materiales pasan desde las plantas y sustancias animales a las bacterias y a los hongos (descomponedores), y de estos a los que se alimentan de detritos (detritívoros) y de ellos a sus depredadores (carnívoros). Por lo general, entre las cadenas tróficas existen muchas interconexiones; por ejemplo, los hongos que descomponen la materia en una red de detritos pueden dar origen a setas que son consumidas por ardillas, ratones y ciervos en una red de pastoreo. Los petirrojos son omnívoros, es decir, consumen plantas y animales, y por esta razón están presentes en las redes de pastoreo y de detritos. Los petirrojos se suelen alimentar de lombrices de tierra que son detritívoras y se alimentan de hojas en estado de putrefacción. Producción y productividad En un ecosistema, las conexiones entre las especies se relacionan generalmente con su papel en la cadena alimentaria. Hay tres categorías de organismos: Productores o autótrofos —Generalmente las plantas o las cianobacterias que son capaces de fotosintetizar pero podrían ser otros organismos tales como las bacterias cerca de los respiraderos del océano que son capaces de quimiosintetizar. Consumidores o heterótrofos —Animales, que pueden ser consumidores primarios (herbívoros), o consumidores secundarios o terciarios (carnívoros y omnívoros). Descomponedores o detritívoros —Bacterias, hongos, e insectos que degradan la materia orgánica de todos los tipos y restauran los alimentos al ambiente. Entonces los productores consumirán los alimentos, terminando el ciclo. Estas relaciones forman las secuencias, en las cuales cada individuo consume al precedente y es consumido por el siguiente, lo que se llama cadenas alimentarias o las redes del alimento. En una red de alimento habrá pocos organismos en cada nivel como uno sigue los acoplamientos de la red encima de la cadena, formando una pirámide. Estos conceptos llevan a la idea de biomasa (la materia viva total en un ecosistema), de la productividad primaria (el aumento en compuestos orgánicos), y de la productividad secundaria (la materia viva producida por los consumidores y los descomponedores en un rato dado). Estas dos ideas pasadas son dominantes, puesto que permiten evaluar la capacidad de carga —el número de organismos que se pueden apoyar por un ecosistema dado. En ninguna red del alimento se transfiere totalmente la energía contenida en el nivel de los productores a los consumidores. Se pierden ascendentes cuanto más alta es la cadena, mayor la energía y los recursos. Así, puramente desde el punto de vista del alimento y la energía, es más eficiente que los seres humanos sean consumidores primarios (subsistir de vehículos, de granos, de las legumbres, de la fruta, etc.) que consumidores secundarios (herbívoros consumidores, omnívoros, o sus productos), y aún más que sean consumidores terciarios (carnívoros consumidores, omnívoros, o sus productos). Un ecosistema es inestable cuando sobra la capacidad de carga. La productividad total de los ecosistemas es estimada a veces comparando tres tipos de ecosistemas con base en tierra y el total de ecosistemas acuáticos; se estima que la mitad de la producción primaria puede ocurrir en tierra, y el resto en el océano. Los bosques (1/3 de la superficie terrestre de la Tierra) contienen biomasas densas y muy productivas. Sabanas, praderas, y pantanos (1/3 de la superficie terrestre de la Tierra) contienen biomasas menos densas, pero es productiva. Estos ecosistemas representan a las mayores partes de las que dependen el alimento humano. Ecosistemas extremos en las áreas con climas más extremos —desiertos y semi-desiertos, tundra, prados alpestres, y estepas -- (1/3 de la superficie terrestre de la Tierra). Tienen biomasas muy escasas y baja productividad. Finalmente, los ecosistemas del agua marina y dulce (3/4 de la superficie terrestre de la Tierra) contiene biomasas muy escasas (aparte de las zonas costeras). Los ecosistemas difieren en su biomasa (carbón de los gramos por metro cuadrado) y la productividad (carbón de los gramos por metro cuadrado por día), y las comparaciones directas de la biomasa y la productividad puede no ser válida. Un ecosistema como este en la taiga puede ser alto en biomasa, pero de crecimiento lento y así bajo en productividad. Los ecosistemas se comparan a menudo en base de su volumen de ventas (cociente de la producción) o del tiempo del volumen de ventas que sean los recíprocos del volumen de ventas. Las acciones humanas durante los últimos siglos han reducido seriamente la cantidad de la tierra cubierta por los bosques (tala de árboles), y han aumentado agroecosistemas. En últimas décadas ha ocurrido un aumento en las áreas ocupadas por ecosistemas extremos, como en el caso de la desertificación. Tasa de renovación Es la relación que existe entre la producción y la biomasa. Sirve para indicar la riqueza de un ecosistema o nivel trófico, ya que representa la velocidad con que se renueva la biomasa, por lo que también recibe el nombre de tasa de renovación. Su valor es el cociente Pn/B. (producción neta entre biomasa) Biodiversidad Biosfera La capa exterior del planeta Tierra puede ser dividida en varios compartimentos: la hidrosfera (o esfera de agua), la litosfera (o ámbito de los suelos y rocas), y la atmósfera (o la esfera de aire). La biosfera (o la esfera de la vida), a veces descrita como "el cuarto sobre" es la materia viva del planeta, o la parte del planeta ocupada por la vida. Alcanza así en los otros tres ámbitos, aunque no hay habitantes permanentes de la atmósfera. En relación con el volumen de la Tierra, la biosfera es solo la capa superficial muy delgada que se extiende 11000 metros bajo el nivel del mar a 15000 metros por encima. Se piensa que la vida por primera vez se desarrolló en la hidrosfera, a profundidades someras, en la zona fótica. (Sin embargo, recientemente, una teoría de la competencia se ha convertido, de que la vida se originó alrededor de fuentes hidrotermales en la profundidad de océano. Véase el origen de la vida.) Luego aparecieron los organismos multicelulares y colonizaron las zonas bentónicas. Organismos fotosintéticos gradualmente emitieron, mediante reacciones químicas, los gases hasta llegar a las actuales concentraciones, especialmente la abundancia de oxígeno, que caracterizan a nuestro planeta. La vida terrestre se desarrolló más tarde, protegida de los rayos UV por la capa de ozono. La diversificación de las especies terrestres se piensa que fue incrementada por la deriva de los continentes por aparte, o, alternativamente, chocar. La biodiversidad se expresa en el nivel ecológico (ecosistema), nivel de población (diversidad intraespecífica), especies (diversidad específica), y nivel genético. La biosfera contiene grandes cantidades de elementos tales como carbono, hidrógeno, oxígeno y nitrógeno. Otros elementos, tales como el fósforo, calcio y potasio, también son esenciales para la vida, pero están presentes en cantidades más pequeñas. En el ecosistema y los niveles de la biosfera ocurre un continuo reciclaje de todos estos elementos que se alternan entre los estados minerales y orgánicos. Aunque hay una ligera entrada de la energía geotérmica, la mayor parte del funcionamiento de los ecosistemas se basa en la aporte de la energía solar. Las plantas y los microorganismos fotosintéticos convierten la luz en energía química mediante el proceso de fotosíntesis, lo que crea la glucosa (un azúcar simple) y libera oxígeno libre. La glucosa se convierte así en la segunda fuente de energía que impulsa el ecosistema. Parte de esta glucosa se utiliza directamente por otros organismos para la energía. Otras moléculas de azúcar pueden ser convertidas en otras moléculas como los aminoácidos. Las plantas usan alguna de estos azúcares, concentrado en el néctar, para atraer a los polinizadores para la ayuda en la reproducción. La respiración celular es el proceso mediante el cual los organismos (como los mamíferos) rompen de glucosa hacia abajo en sus mandantes, el agua y el dióxido de carbono, por lo tanto, recuperar la energía almacenada originalmente dio el sol a las plantas. La proporción de la actividad fotosintética de las plantas y otros fotosintetizadores a la respiración de otros organismos determina la composición de la atmósfera de la Tierra, en particular su nivel de oxígeno. Las corrientes de aire globales unen la atmósfera manteniendo casi el mismo equilibrio de los elementos en áreas de intensa actividad biológica y las áreas de la actividad biológica ligera. El agua es también intercambiada entre la hidrosfera, la litosfera, la atmósfera, la biosfera y en ciclos regulares. Los océanos son grandes depósitos que almacenan el agua, aseguran la estabilidad térmica y climática, y facilitan el transporte de elementos químicos gracias a las grandes corrientes oceánicas. Para una mejor comprensión de cómo funciona la biosfera, y las diversas disfunciones relacionadas con la actividad humana, científicos americanos trataron de simular la biosfera en un modelo en pequeña escala, llamado Biosfera 2. Ecosistema Un principio central de la ecología es que cada organismo vivo tiene una relación permanente y continua con todos los demás elementos que componen su entorno. La suma total de la interacción de los organismos vivos (la biocenosis) y su medio no viviente (biotopo) en una zona que se denomina un ecosistema. Los estudios de los ecosistemas por lo general se centran en la circulación de la energía y la materia a través del sistema. Casi todos los ecosistemas funcionan con energía del sol capturada por los productores primarios a través de la fotosíntesis. Esta energía fluye a través de la cadena alimentaria a los consumidores primarios (herbívoros que comen y digieren las plantas), y los consumidores secundarios y terciarios (ya sea omnívoros o carnívoros). La energía se pierde a los organismos vivos cuando se utiliza por los organismos para hacer el trabajo, o se pierde como calor residual. La materia es incorporada a los organismos vivos por los productores primarios. Las plantas fotosintetizadoras fijan el carbono a partir del dióxido de carbono y del nitrógeno de la atmósfera o nitratos presentes en el suelo para producir aminoácidos. Gran parte de los contenidos de carbono y nitrógeno en los ecosistemas es creado por las instalaciones de ese tipo, y luego es incorporado por los consumidores secundarios y terciarios. Los nutrientes son generalmente devueltos a los ecosistemas a través de la descomposición. Todo el movimiento de los productos químicos en un ecosistema que se denomina un ciclo biogeoquímico, e incluye el ciclo del carbono y del nitrógeno. Los ecosistemas de cualquier tamaño se pueden estudiar, por ejemplo, una roca y la vida de las plantas que crecen en ella puede ser considerado un ecosistema. Esta roca puede estar dentro de un llano, con muchas de estas rocas, hierbas pequeñas, y animales que pastorean - también un ecosistema-. Este puede ser simple en la tundra, que también es un ecosistema (aunque una vez que son de este tamaño, por lo general se denomina ecozonas o biomas). De hecho, toda la superficie terrestre de la Tierra, toda la materia que lo compone, el aire que está directamente encima de este, y todos los organismos vivos que viven dentro de ella puede ser considerados como un solo gran ecosistema. Los ecosistemas se pueden dividir en los ecosistemas terrestres (incluidos los ecosistemas de bosques, estepas, sabanas, etc), los ecosistemas de agua dulce (lagos, estanques y ríos), y los ecosistemas marinos, en función del biotopo dominante. Relaciones espaciales y subdivisiones de la Tierra Los ecosistemas no están aislados unos de otros sino interrelacionadas; por ejemplo, el agua puede circular entre los ecosistemas por medio de un río o corriente oceánica. El agua en sí, como un medio líquido, incluso define los ecosistemas. Algunas especies, como el salmón o la anguila de agua dulce se mueven entre los sistemas marinos y de agua dulce. Estas relaciones entre los ecosistemas conducen a la idea de "bioma". Un bioma es una formación homogénea ecológica que existe en una amplia región, como la tundra y las estepas. La biosfera comprende la totalidad de los biomas de la Tierra - la totalidad de los lugares donde la vida es posible - desde las montañas más altas a las profundidades oceánicas. Los biomas están bastante bien distribuidos a lo largo de las subdivisiones a las latitudes, desde el ecuador hacia los polos, con las diferencias basadas en el entorno físico (por ejemplo, los océanos o cordilleras) y el clima. Su variación está generalmente relacionada con la distribución de las especies de acuerdo a su capacidad para tolerar la temperatura, la sequedad, o ambos. Por ejemplo, se pueden encontrar algas fotosintéticas solo en la parte luminosa de los océanos (donde penetra la luz), mientras que las coníferas se encuentran principalmente en las montañas. Aunque esta es una simplificación de un sistema más complicado, la latitud y la altitud representan de manera adecuada la distribución de la diversidad biológica dentro de la biosfera. En general, la riqueza de la diversidad biológica (así como de los animales como para las especies de plantas) está disminuyendo más rápidamente cerca del ecuador y más lentamente a medida que nos aproximamos a los polos. La biosfera también puede ser dividida en ecozonas, que están muy bien definidas y sobre todo hoy en día sigue las fronteras continentales. Las zonas ecológicas son divididas en las ecorregiones, aunque no hay acuerdo sobre sus límites. Disciplinas Como disciplina científica en donde intervienen diferentes caracteres la ecología no puede dictar qué es "bueno" o "malo". Aun así, se puede considerar que el mantenimiento de la biodiversidad y sus objetivos relacionados han provisto la base científica para expresar los objetivos del ecologismo y, asimismo, le ha provisto la metodología y terminología para expresar los problemas ambientales. La economía y la ecología comparten formalismo en muchas de sus áreas; algunas herramientas utilizadas en esta disciplina, como tablas de vida y teoría de juegos, tuvieron su origen en la economía. La disciplina que integra ambas ciencias es la economía ecológica. La aerobiología es una ciencia multidisciplinaria en la que se incluyen los procesos ecológicos relacionados con las partículas biológicas transportadas pasivamente a través del aire. La ecología microbiana es la rama de la ecología que estudia a los microorganismos en su ambiente natural, los cuales mantienen una actividad continua imprescindible para la vida en la Tierra. En los últimos años se han logrado numerosos avances en esta disciplina con las técnicas disponibles de biología molecular. Los mecanismos que mantienen la diversidad microbiana de la biosfera son la base de la dinámica de los ecosistemas terrestres, acuáticos y aéreos. Es decir, la base de la existencia de las selvas y de los sistemas agrícolas, entre otros. Por otra parte, la diversidad microbiana del suelo es la causa de la fertilidad del mismo. La biogeografía: es la ciencia que estudia la distribución de los seres vivos sobre la Tierra, así como los procesos que la han originado, que la modifican y que la pueden hacer desaparecer. Es una ciencia interdisciplinaria, de manera que aunque formalmente es una rama de la geografía, recibiendo parte de sus fundamentos de especialidades como la climatología y otras ciencias de la Tierra, es a la vez parte de la biología. La superficie de la Tierra no es uniforme, ni en toda ella existen las mismas características. El espacio isotrópico que utilizan, o suponen, los esquemas teóricos de localización es tan solo una construcción matemática del espacio. La ecología matemática se dedica a la aplicación de los teoremas y métodos matemáticos a los problemas de la relación de los seres vivos con su medio y es, por tanto, una rama de la biología. Esta disciplina provee de la base formal para la enunciación de gran parte de la ecología teórica La ecología urbana es una disciplina cuyo objeto de estudio son las interrelaciones entre los habitantes de una aglomeración urbana y sus múltiples interacciones con el ambiente. La ecología de la recreación es el estudio científico de las relaciones ecológicas entre el ser humano y la naturaleza dentro de un contexto recreativo. La ecología del paisaje es una disciplina a caballo entre la geografía física y la biología. Estudia los paisajes naturales prestando especial atención a los grupos humanos como agentes transformadores de la dinámica físico-ecológica de estos. Ha recibido aportes tanto de la geografía física como de la biología: la geografía aporta las visiones estructurales del paisaje (el estudio de la estructura horizontal o del mosaico de subecosistemas que conforman el paisaje), mientras que la biología aporta la visión funcional del paisaje (las relaciones verticales de materia y energía). Este concepto comienza en 1898, con el geógrafo, padre de la pedología rusa, Vasily Vasilievich Dokuchaev y fue más tarde continuado por el geógrafo alemán Carl Troll. Es una disciplina muy relacionada con otras áreas como la geoquímica, la geobotánica, las ciencias forestales o la pedología. La limnología es la rama de la ecología que se centra en el estudio de los sistemas acuáticos continentales: ríos, lagos, lagunas, etcétera. La dendroecología se centra en el estudio de la ecología de los árboles. La ecología regional es una disciplina que estudia los procesos ecosistémicos como el flujo de energía, el ciclo de la materia o la producción de gases de invernadero a escala de paisaje regional o bioma. Considera que existen grandes regiones que funcionan como un único ecosistema. La agronomía, pesquería y, en general, toda disciplina que tenga relación con la explotación o conservación de recursos naturales, en especial seres vivos, pueden interpretarse como ecología aplicada. Es decir, tienen la misma relación con la ecología que gran parte de las ingenierías con la matemática, la física o la química. Otras disciplinas Biología de la conservación Derecho ambiental Ecología de comunidades Ecología de poblaciones Ecología evolutiva Ecología del comportamiento Etoecología Ecología humana Ecología reproductiva Ecología social Ecología cultural Ecólogos célebres Ramón Margalef Fernando González Bernáldez Eugene P. Odum Miguel Ángel de Quevedo Ernst Haeckel Edward Osborne Wilson Véase también Referencias Bibliografía Santana, Adalberto Coord. (2011). Energía, medio ambiente y política en América Latina. México: UNAM. ISBN 978-607-02-2814-8 Enlaces externos Términos básicos de la ecología. Revista digital de ecología. Revista digital de ecología y medio ambiente. Helenismos
544_0
Euphorbiales
Euphorbiales, en las clasificaciones vigentes hasta hace pocos años era un orden de plantas angiospermas (división Magnoliophyta) dicotiledóneas (clase Magnoliopsida) que contenía seis familias. Sus miembros se clasifican en el orden Malpighiales. Flores unisexuales, aclamídeas o monoclamídeas, con gineceo de tres carpelos soldados y cerrados, placentación axial, con 1-2 óvulos. Relaciones filogenéticas discutidas hasta la aplicación de nuevas técnicas moleculares; Cronquist, las relacionaba con Celastrales o con Sapindales, al tener un gineceo con pocos carpelos y pocos óvulos, y además, por la reducción del periantio y las flores unisexuales, lo incluía en la subclase Rosidae. Thaktajan lo relacionaba con Malvales (las euforbiáceas plesiotípicas (“primitivas”), tienen corolas desarrolladas con estambres soldados en fascículo o en tubo, y frutos con carpelos que se separan en la madurez) por lo que las incluye en la subclase Dilleniidae. Familias anteriormente incluidas en Euphorbiales Buxaceae - 2 géneros Daphniphyllaceae - 1 género Daphniphyllum, 35 especies. La familia está clasificada en Saxifragales. Euphorbiaceae - 71 géneros. Pandaceae - 4 géneros, 28 especies. Simmondsiaceae - 1 género. Aextoxicaceae, asignada al orden euphorbiales en algunos sistemas antiguos, es ahora clasificada en los Berberidopsidales. Véase también Malpighiales Malpighiales
551_0
Etología
La etología (del griego ηθος, ethos, «costumbre», y λóγος, logos, «razonamiento, estudio, ciencia») es la rama de la biología y de la psicología experimental que estudia el comportamiento de los animales en sus medios naturales, en situación de libertad o en condiciones de laboratorio, aunque son más conocidos los estudios de campo. Al estudiar tradicionalmente el comportamiento en el medio natural, la investigación etológica suele distinguirse de la conductual, en tanto esta última se centra en el medio artificial o de laboratorio, aunque su objeto de estudio es el mismo y sólo difieren en el método con que lo estudian. Los científicos dedicados a la etología se denominan etólogos y estudian las características conductuales distintivas de un grupo determinado y cómo estas evolucionan para la supervivencia del mismo en un ambiente determinado. Su objeto de estudio es el comportamiento animal en su interacción con el medio. Los seres humanos, en tanto que animales, forman parte del campo de estudio de la etología. Algunos autores denominan a esta especialización «etología humana», diferenciándola expresamente de la psicología o la sociobiología. Los objetivos de los etólogos son el estudio de la conducta, instinto y de las relaciones con el medio, así como el descubrimiento de las pautas que guían la actividad innata o aprendida de las diferentes especies animales. Así, los etólogos estudian en los animales aspectos tales como la agresividad, el apareamiento, el desarrollo del comportamiento, la vida social, la impronta y muchos otros. Definiciones de etología Existe cierta tendencia, dentro de la etología, a eludir una definición formal de la misma, y las definiciones existentes son amplias y ambiguas. Algunas de las definiciones de etología son las siguientes: 1951 - Nikolaas Tinbergen: «Estudio objetivo del comportamiento (más tarde, estudio biológico de la conducta)». 1979 - Irenäus Eibl-Eibesfeldt: «Estudio comparado del comportamiento». 2009 - Manuel Soler: «La ecología del comportamiento (originada por el enfoque adaptacionista de la etología) ha conseguido un protagonismo tan marcado que se la puede considerar como la etología moderna». Historia de la etología A principios del siglo XX, se creó la psicología comparada, que consistía en el estudio de la conducta y las capacidades psicológicas de las diferentes especies animales y que, en este sentido, consideraba la conducta humana como uno de los muchos tipos de conducta animal. Los conductistas utilizan este método en sus estudios, pero, a partir de 1973, cuando los científicos Konrad Lorenz, Karl R. von Frisch y Niko Tinbergen recibieron el Premio Nobel por sus estudios sobre la conducta de los animales, la etología comenzó a considerarse ciencia con pleno derecho y la psicología comparada se integró en esta nueva ciencia. En Europa, la investigación del comportamiento animal se desarrolló resaltando los estudios de campo y las conductas instintivas. Hemos de destacar a algunos de los más brillantes etólogos: Konrad Lorenz, con su estudio sobre la impronta en los gansos; Karl von Frisch, centrado en el sistema de comunicación de las abejas, y Niko Tinbergen, interesado en el estudio sobre el instinto en el pez conocido como espinoso. En los Estados Unidos, durante la primera mitad del siglo XX, destacó una investigación del comportamiento animal centrada en las conductas aprendidas en medios controlados. Estas investigaciones dieron lugar a la psicología comparada y al conductismo. En 1951, Niko Tinbergen publicó The Study of Instinct (El estudio del instinto), donde plantea las cuatro preguntas sobre las que se apoya la etología (causacional, del desarrollo u ontogenético, evolución y filogenético) y hace una distinción entre la psicología comparada y la etología. En 1966, Robert Hinde hace una síntesis de las dos y distingue los aspectos más destacables de cada una. Estudios etológicos Los cuatro porqués etológicos: Causas Intenta averiguar la causa directa del comportamiento. Podemos hacer aquí una dicotomía sobre el tema: Causa interna. Causa externa. La causa interna es un modelo de caja abierta, intenta explicar la causa a nivel fisiológico. La causa externa intenta responder a la pregunta de qué causa externa ha desencadenado la respuesta etológica, como si se tratara de un modelo de caja cerrada, sin preocuparse del motivo fisiológico. Desarrollo Intenta averiguar el comportamiento del organismo del ser humano, ocasionado por las anteriores situaciones o causas hechas por los animales. Evolutivo Intenta responder qué beneficios obtiene el animal de un comportamiento y qué ventajas evolutivas ha tenido para que este sea seleccionado. Por ejemplo, ¿qué ventaja evolutiva obtiene una gallina de cuidar a sus crías y no abandonarlas? Filogenético Intenta responder a la pregunta «¿Cuándo apareció dicho comportamiento en la historia evolutiva de la especie?». Comportamientos innatos y aprendidos Otro problema que aborda la etología es si un comportamiento tiene bases genéticas o es aprendido. Durante décadas, muchos etólogos —entre ellos, Konrad Lorenz—, proponían que un comportamiento o era innato o era aprendido. En cambio, otros científicos de la rama de la psicología y otros de ramas diferentes afirmaban que los comportamientos podían tener características de los dos tipos. Finalmente, se llegó a la conclusión de que, aunque un factor sea innato o aprendido, en muchas ocasiones tiene parte de ambas cosas: requiere aprendizaje o un conocimiento innato para su correcto desarrollo. La existencia de una conciencia en los animales Igualmente la etología aborda el problema de la demostración de existencia de una conciencia en los animales. El 7 de julio de 2012, científicos prominentes de diferentes ramas de las neurociencias se dieron cita en la Universidad de Cambridge para celebrar la Francis Crick Memorial Conference, la cual trató sobre la existencia de la conciencia en animales humanos y no humanos. Al finalizar las conferencias, se firmó, en presencia de Stephen Hawking, la Cambridge Declaration On Consciousness (Declaración de Cambridge sobre la Conciencia), que resumió los hallazgos más importantes de la investigación allí expuesta y discutida: Algunos estudios han hablado de altos niveles de conciencia en algunas especies de animales no humanos, comparándolos con niveles humanos. Véase también Altruismo biológico Antropología Comportamiento de Agelaius phoeniceus Ecología del comportamiento Etoecología Iván Pávlov Konrad Lorenz Lek (comportamiento animal) Psicología experimental Zoología Referencias Bibliografía Carranza, J. (Ed.). (2016). Etología adaptativa: El comportamiento como producto de la selección natural. Cáceres: Universidad de Extremadura y Córdoba: UCOPress. ISBN 978-84-7723-988-8. Font, E.; Colmenares, F. y Guillén-Salazar, F. (1998). El lugar de la etología en las ciencias del comportamiento. Revista de Psicología General y Aplicada, 51(1): 55-83. Guillén-Salazar, F. (1996). Comportamiento animal y sociedad: Una introducción a la etología aplicada. En: Etología, psicología comparada y comportamiento animal. (F. Colmenares, ed.), , pp. 113-133. Madrid: Síntesis. Guillén-Salazar, F.; Pons-Salvador, G. y Carpintero, H. (2001), El desarrollo histórico del estudio del comportamiento animal en España: desde el Renacimiento hasta nuestros días. Revista de Psicología General y Aplicada, 54 (2): 331-344. Soler, Manuel. (2009). Adaptación del comportamiento: comprendiendo al animal humano, Síntesis, 2009, ISBN 978-84-9756-643-8. Pozuelos Jiménez de Cisneros, A. (2004). La etología del perro. Madrid: Ateles. Richard Maier (2013). Comportamiento Animal. Un Enfoque Evolutivo y Ecológico. Enlaces externos El mito del hombre, el asesino, por Eric S. Raymond La naturaleza humana. Por Francisco Capella. Blog sobre conducta animal, primates y evolución, Somosprimates.com Sociedad española de etología y ecología evolutiva.
561_0
Equipo terminal de datos
Un equipo terminal de datos (ETD) es aquel componente de un circuito de datos que hace de fuente o destino de la información. Por ejemplo, puede ser un terminal, una impresora o también una computadora. La característica definitoria de un ETD, no es la eficiencia ni la potencia de cálculo, es la función que realiza: ser origen o destino en una comunicación. Un ETD fuente, por lo general, contiene la información almacenada en un dispositivo de memoria principal permanente (que se modifica sin un flujo electrónico continuo). El ETD destino es aquel que recibe una información o datos de manera directa o indirecta, sin alterar el contenido de la información durante el total del proceso. Si el ETD solo procesa los datos y los envía sin modificarlos a un tercero, se lo llama equipo terminal del circuito de datos (ETCD), por ejemplo, una computadora. Véase también ETCD RS-232 Terminal Hardware Siglas de informática
570_0
Esmeralda
La esmeralda es la variedad verde del berilo, un mineral ciclosilicato de berilio y aluminio de fórmula química Be3Al2(SiO3)6, que contiene además pequeñas cantidades de cromo y, en algunos casos, vanadio, que le proporcionan su característico color verde. El peso específico oscila entre 2,65 y 2,90 y posee una dureza de 7,5 a 8 en la escala de Mohs. La mayoría de las esmeraldas son altamente incluidas, por lo que su tenacidad (resistencia a la rotura) se clasifica como generalmente pobre. Es una piedra preciosa muy valorada. Ya en la antigüedad las piedras de color verde, como la malaquita, y la variscita fueron muy apreciadas. La esmeralda une a su color verde especialmente intenso la propiedad de ser transparente o al menos traslúcida, y su mayor brillo al ser pulida. Su nombre, posiblemente persa, significa piedra verde y su tonalidad ha dado nombre al color verde esmeralda. Técnicamente, la esmeralda es una variedad de berilo cuyo color se debe a la presencia de cromo y/o vanadio. Su valor como gema depende críticamente de su grado de transparencia. La esmeralda casi opaca es relativamente común y se encuentra en muchos países, pero su valor es actualmente muy limitado. La esmeralda de calidad gema debe ser transparente, aunque casi nunca está libre de inclusiones e imperfecciones internas, el llamado "jardín de la esmeralda", y es mucho más rara. La esmeralda de calidad gema se encuentra en gran cantidad en Colombia, ya que es el principal productor mundial de esmeraldas de calidad gema. Mención especial merece la esmeralda trapiche, que se encuentra en algunas minas de Colombia, por su extraña forma de estrella debido al crecimiento del cristal en varias direcciones. Su nombre procede del cilindro dentado utilizado en los trapiches para extraer el azúcar de la caña. Otros yacimientos están situados en Brasil, especialmente en el estado de Bahía. En este país se obtienen muchas esmeraldas de baja calidad, utilizadas sin tallar, asociadas a la roca encajante, como material de decoración o para coleccionismo. Pequeños yacimientos en los que aparece ocasionalmente material gema, pero de interés especialmente para los coleccionistas, se encuentran en Estados Unidos (especialmente en Carolina del Norte). En la región de Sikait-Zabara, en Egipto, existen unas minas de esmeraldas que posiblemente fueron explotadas hace 3500 años. Con los criterios modernos, a la vista de los yacimientos conocidos actualmente, la calidad del material es muy baja, pero durante siglos fue el principal yacimiento del Viejo Mundo. Muchos años después del descubrimiento de las esmeraldas, Cleopatra llegó a poseer esas minas, pues sentía una especial fascinación por estas piedras. En África se encuentran esmeraldas de calidad gema en Zambia, especialmente en el distrito de Ndola, así como en Mozambique y Zimbabue. En Europa, las minas más importantes fueron las situadas en Rusia, en la zona de Ekaterinburgo, región de los Urales. Generalmente su transparencia no es muy grande. En algunos yacimientos aparecen asociadas al crisoberilo de la variedad conocida como alejandrita. Yacimientos del mismo tipo se encuentran en Austria, en la región de Salzburgo, y en España, en Pontevedra. En Asia, los yacimientos más importantes están en Afganistán, en la provincia de Nuristán y en el Valle de Panjshir. Los de la India, en Tamil Nadu y en Rajastán, se conocen desde antiguo, aunque la calidad del material es mediocre. También se han encontrado esmeraldas, aunque muy raramente de calidad gema, en diversas localidades australianas. Etimología La palabra "esmeralda" deriva (vía antiguo francés: esmeraude}} y del inglés medio emeraude), del latín vulgar: esmaralda/esmaraldus, una variante del latín smaragdus, que era vía (smáragdos; "gema verde") de una lengua semítica. (smáragdos; "gema verde") de una lengua semítica. Según el Diccionario Webster el término esmeralda se utilizó por primera vez en el . Propiedades que determinan el valor Las esmeraldas, como todas las piedras preciosas de color, se clasifican utilizando cuatro parámetros básicos conocidos como "las cuatro C": color, claridad, talla y peso en quilates. Normalmente, en la clasificación de piedras preciosas de color, el color es con diferencia el criterio más importante. Sin embargo, en la clasificación de las esmeraldas, la claridad ocupa un segundo lugar. Una esmeralda de calidad no sólo debe poseer un tono verde puro, como se describe a continuación, sino también un alto grado de transparencia para ser considerada una gema de calidad superior. Este miembro de la familia de los berilos se encuentra entre las tradicionales "cuatro grandes" gemas junto con diamantes, rubíes y zafiros. En la década de 1960, la industria joyera estadounidense cambió la definición de esmeralda para incluir el berilo verde con vanadio. Como resultado, las esmeraldas de vanadio compradas como esmeraldas en Estados Unidos no son reconocidas como tales en el Reino Unido y Europa. En América, la distinción entre las esmeraldas tradicionales y las nuevas con vanadio se refleja a menudo en el uso de términos como "esmeralda colombiana". Color En gemología, el color se divide en tres componentes: tono, saturación, y tono'''. Las esmeraldas presentan tonalidades que van del amarillo verdoso al azul verdoso, siendo el tono primario necesariamente el verde. El amarillo y el azul son los tonos secundarios habituales en las esmeraldas. Sólo se consideran esmeraldas las gemas de tonalidad media a oscura; las gemas de tonalidad clara se conocen con el nombre de especie berilo verde. Las esmeraldas más finas tienen aproximadamente un 75% de tono en una escala en la que 0% de tono es incoloro y 100% es negro opaco. Además, una esmeralda fina estará saturada y tendrá un tono que es brillante (vívido). El gris es el modificador de saturación normal o máscara que se encuentra en las esmeraldas; un tono verde grisáceo es un tono verde apagado. Claridad [[Archivo:Emerald in a quartz and pegmatite matrix.JPG|thumb|Esmeralda brasileña en los típicos cristales prismáticos hexagonales, formando parte de una pegmatita con matriz de cuarzo.<ref>Bonewitz, R. (2005). Rock and gem. New York: DK Pub. pp. 292-293. .</ref>]] Las esmeraldas suelen presentar numerosas inclusiones y fisuras que rompen la superficie. A diferencia de los diamantes, en los que se utiliza la lupa estándar (es decir, 10× de aumento) para clasificar la claridad, las esmeraldas se clasifican a ojo. Por lo tanto, si una esmeralda no tiene inclusiones visibles a simple vista (suponiendo una agudeza visual normal) se considera impecable. Las piedras que carecen de fisuras superficiales son extremadamente raras, por lo que casi todas las esmeraldas son tratadas ("aceitadas", véase más adelante) para mejorar su claridad aparente. Las inclusiones y fisuras dentro de una esmeralda a veces se describen como jardin (jardín en francés), debido a su aspecto musgoso. Las imperfecciones son únicas para cada esmeralda y se pueden utilizar para identificar una piedra en particular. Las piedras limpias de ojos de un tono verde primario vivo (como el descrito anteriormente), con no más del 15% de cualquier tono secundario o combinación (ya sea azul o amarillo) de un tono medio-oscuro, alcanzan los precios más altos.La relativa no uniformidad motiva el corte de esmeraldas en forma de cabujón, en lugar de formas facetadas. Las esmeraldas facetadas suelen tener un corte ovalado, o el característico corte esmeralda, un corte rectangular con facetas alrededor del borde superior. Tratamientos La mayoría de las esmeraldas se aceitan como parte del proceso post-lapidario, con el fin de rellenar las grietas superficiales para mejorar su claridad y estabilidad. El aceite de cedro, que tiene un índice de refracción similar, se utiliza a menudo en esta práctica ampliamente adoptada. También se utilizan otros líquidos, incluidos aceites sintéticos y polímeros con índices de refracción cercanos al de las esmeraldas, como el Opticon. Las esmeraldas menos caras suelen tratarse con resinas epoxi, que son eficaces para rellenar piedras con muchas fracturas.Estos tratamientos se aplican normalmente en una cámara de vacío bajo calor suave, para abrir los poros de la piedra y permitir que el agente de relleno de fracturas se absorba con mayor eficacia. La Comisión Federal de Comercio de Estados Unidos exige la divulgación de este tratamiento cuando se vende una esmeralda tratada con aceite. El uso de aceite es tradicional y está ampliamente aceptado por el comercio de gemas, aunque las esmeraldas tratadas con aceite valen mucho menos que las esmeraldas no tratadas de calidad similar. Además, las esmeraldas no tratadas deben ir acompañadas de un certificado de un laboratorio gemológico autorizado e independiente. Otros tratamientos, por ejemplo el uso de aceite teñido de verde, no son aceptables en el comercio. Las gemas se clasifican en una escala de cuatro niveles: ninguna, menor, moderada y muy mejorada. Estas categorías reflejan los niveles de realce, no la "claridad". Una gema clasificada como ninguna en la escala de realce puede presentar inclusiones visibles. Los laboratorios aplican estos criterios de forma diferente. Algunos gemólogos consideran que la mera presencia de aceite o polímeros constituye realce. Otros pueden ignorar las trazas de aceite si la presencia del material no mejora el aspecto de la gema. Minas de esmeralda Las esmeraldas en la antigüedad se extraían en el Antiguo Egipto en lugares del monte Smaragdus desde el año 1500 a. C., y en la India y Austria desde al menos el Las minas egipcias fueron explotadas a escala industrial por los imperios romano y bizantino, y más tarde por los conquistadores islámicos. La minería en Egipto cesó con el descubrimiento de los yacimientos colombianos. Hoy en día, sólo quedan ruinas en Egipto. Colombia es, con diferencia, el mayor productor mundial de esmeraldas, con un 50-95% de la producción mundial, cifra que depende del año, la procedencia y la ley. La producción de esmeraldas en Colombia ha aumentado drásticamente en la última década, incrementándose en un 78% entre 2000 y 2010. Las tres principales zonas de extracción de esmeraldas en Colombia son Muzo, Coscuez y Chivor.En Colombia se encuentran raras esmeraldas "trapiche", que se distinguen por radios en forma de rayo de impurezas oscuras. Zambia es el segundo mayor productor del mundo, con sus depósitos del área del río río Kafubu (minas Kagem) a unos 45 km al suroeste de Kitwe responsables del 20% de la producción mundial de piedras de calidad gema en 2004. En el primer semestre de 2011, las minas de Kagem produjeron 3. 74 toneladas de esmeraldas. Las esmeraldas se encuentran por todo el mundo en países como Afganistán, Australia, Austria, Brasil, Bulgaria, Camboya, Canadá, China, Egipto, Etiopía, Francia, Alemania, India, Kazajistán, Madagascar, Mozambique, Namibia, Nigeria, Noruega, Pakistán, Rusia, Somalia, Sudáfrica, España, Suiza, Tanzania, Estados Unidos, Zambia y Zimbabue. En los EE.UU., se han encontrado esmeraldas en Connecticut, Montana, Nevada, Carolina del Norte y Carolina del Sur. En 1998, se descubrieron esmeraldas en el Territorio del Yukón de Canadá. Determinaciones del origen Desde el inicio de las preocupaciones sobre el origen de los diamantes, se han llevado a cabo investigaciones para determinar si se podía determinar el lugar de extracción de una esmeralda ya en circulación. La investigación tradicional utilizaba directrices cualitativas como el color de la esmeralda, el estilo y la calidad del corte, el tipo de relleno de la fractura y los orígenes antropológicos de los artefactos que llevaban el mineral para determinar la ubicación de la mina de la esmeralda. Estudios más recientes realizados con métodos de espectroscopia de dispersión de energía de rayos X han descubierto trazas de diferencias de elementos químicos entre las esmeraldas, incluso entre las extraídas muy cerca unas de otras. El gemólogo estadounidense David Cronin y sus colegas han examinado exhaustivamente las firmas químicas de las esmeraldas resultantes de la dinámica de fluidos y de sutiles mecanismos de precipitación, y sus investigaciones han demostrado la homogeneidad química de las esmeraldas procedentes de un mismo emplazamiento minero y las diferencias estadísticas que existen entre las esmeraldas de distintos emplazamientos mineros, incluidas las que se encuentran entre las tres localidades: Muzo, Coscuez y Chivor, en Colombia, Sudamérica. Simbolismo En la Edad Media, fue símbolo de Juan el Apóstol. Para los alquimistas, es la piedra de Venus. La superstición, desde tiempos muy remotos, ha atribuido a esta piedra virtudes milagrosas, tales entre otras como las de impedir los síntomas de la epilepsia y de romperse cuando el mal había llegado a tal estado de violencia que no podía ella vencerle; de acelerar el parto cuando la ataban al muslo de la mujer que se hallaba en el trance de dar a luz. Finalmente, el polvo de la esmeralda curaba la disentería y las mordeduras de los animales venenosos. Los pueblos del valle de Manta, en Ecuador, adoraban una esmeralda del tamaño de un huevo de avestruz; la enseñaban en los días de las fiestas mayores, y los indios corrían de todas partes para ver a su diosa y ofrecerle otras esmeraldas. Los sacerdotes y caciques hacían entender a los creyentes que la esmeralda madre estaba muy contenta, porque le presentaban a sus hijas, logrando con esta estratagema reunir una gran cantidad de piedras preciosas. Cuando los expedicionarios españoles conquistaron la región, según se dice, encontraron todas las hijas de la diosa pero los indios supieron ocultar tan bien a la madre que aún no ha podido averiguarse su paradero. Esmeraldas famosas Esmeralda Gachalá: Una esmeralda de 171,6 g (858 quilates). Fue encontrada en 1967 en la mina Vega de San Juan en el municipio de Gachalá del departamento de Cundinamarca, Colombia. Esmeralda Fura: Es de 2,2 kg (11 000 quilates), es la segunda esmeralda tallada más grande del mundo, era propiedad de Víctor Carranza. Esmeralda Teodora: Es de 11,4 kg (57 500 quilates), es la esmeralda tallada más grande del mundo, propiedad de Regan Reaney, un comerciante de gemas raras de Canadá. Esmeralda Tena: De 400 g (2000 quilates), tiene intensidad oscura, verde mariposa, que la hace más valiosa, mucho más valiosa que la esmeralda que perteneció a la emperatriz rusa Catalina la Grande, y que se remató en Christie's de Nueva York por dos millones de dólares, esta también propiedad de Carranza. Esmeralda Catalina la Grande: Una esmeralda de un peso aproximado 4693 quilates y 2200 g . Fue encontrada en 2010 en la mina Muzo en el municipio de Muzo del departamento de Boyacá, Colombia. Véase también Rubí Zafiro Diamantes Referencias Enlaces externos Fotografías de esmeraldas famosas Joyería
585_0
Epigrafía
La epigrafía (del idioma griego επιγραφή: escrito sobre) es una ciencia autónoma y a la vez auxiliar de la Historia, cuyo objetivo principal es el estudio completo de inscripciones, en su estructura, soporte, materia, su forma, su contenido escrito, pero también la función que desempeña tal evidencia. La finalidad de la Epigrafía abarca no solo el desciframiento, lectura e interpretación de las inscripciones, con el fin de obtener la mayor cantidad posible de información de las mismas, sino también el estudio de los materiales y soportes (piedra, metal, madera, hueso, cerámica, entre otros) sobre los que se ha escrito, y cómo se ha escrito, así como la finalidad, la función para la cual se concibió y se destinó tal elemento. Según las convenciones internacionales (especialmente para la Unesco), la existencia de epigrafía propia es el marcador que indica el paso de una cultura de prehistórica a histórica, especialmente cuando entre sus inscripciones cuenta con anales y crónicas. La Epigrafía se relaciona de forma directa con ciencias como la Historia Antigua, la Arqueología, la Filología y la Paleografía y, complementariamente, con otras como la Numismática, la Historia de las Religiones o el Derecho Romano. Aunque también estudia las leyendas presentes en las monedas, el estudio especializado de las inscripciones que aparecen sobre estas es propio de la numismática. Historia de la epigrafía El primer material escrito que se documenta con seguridad es el signario cuneiforme, dentro de la cultura sumeria, hacia 3.800 a. C. La epigrafía se especializa según su época histórica y también según la cultura que la produce, aunque históricamente las más desarrolladas son la cuneiforme, la egipcia, la griega y la romana. La epigrafía es una ciencia en constante desarrollo desde el . Los principios de la epigrafía varían de una cultura a otra, y la ciencia incipiente en manos europeas se concentró al principio en las inscripciones latinas. Han realizado aportaciones individuales epigrafistas como Georg Fabricius (1516-1571); Stefano Antonio Morcelli (1737-1822); Luigi Gaetano Marini (1742-1815); August Wilhelm Zumpt (1815-1877); Theodor Mommsen (1817-1903); Emil Hübner (1834-1901); Franz Cumont (1868-1947); Louis Robert (1904-1985). El , iniciado por Mommsen y otros eruditos, se publica en Berlín desde 1863, con interrupciones en tiempos de guerra. Es la mayor y más extensa colección de inscripciones latinas. Se siguen produciendo nuevos fascículos a medida que continúa la recuperación de inscripciones. El está ordenado geográficamente: todas las inscripciones de Roma están contenidas en el volumen 6. Este volumen contiene el mayor número de inscripciones; el volumen 6, parte 8, fascículo 3 acaba de publicarse recientemente (2000). Los especialistas dependen de estas series continuas de volúmenes en los que se publican las inscripciones recién descubiertas, a menudo en latín, no muy distintas del Zoological Record de los biólogos: la materia prima de la historia. La epigrafía griega se ha desarrollado en manos de un equipo diferente, con corpora diferentes. Hay dos. El primero es , del que salieron cuatro volúmenes, de nuevo en Berlín, 1825-1877. Fue el primer intento de publicación exhaustiva de inscripciones griegas copiadas de todo el mundo de habla griega. Sólo los estudiantes avanzados siguen consultándolo, ya que ha sido sustituido por mejores ediciones de los textos. El segundo corpus, moderno, es ordenado geográficamente por categorías: decretos, catálogos, títulos honoríficos, inscripciones funerarias, varias, todas presentadas en latín, para preservar la neutralidad internacional del campo de los clásicos. Otras series de este tipo son el (inscripciones etruscas), el (inscripciones de los cruzados) y el (inscripciones de los cruzados). (inscripciones de los cruzados), (inscripciones celtas). (inscripciones celtas), (inscripciones iraníes) (inscripciones iraníes), "Royal Inscriptions of Mesopotamia" y "Royal Inscriptions of the Neo-Assyrian Period" (inscripciones sumerias y acadias), etc. Los jeroglíficos egipcios se resolvieron utilizando la Piedra de Rosetta, que era una estela multilingüe en griego clásico, egipcio demótico y jeroglíficos egipcios clásicos. El trabajo fue realizado por el erudito francés Jean-François Champollion y el científico británico Thomas Young. La interpretación de los jeroglíficos mayas se perdió como consecuencia de la conquista española de América Central. Sin embargo, trabajos recientes de epigrafistas y lingüistas mayas han aportado una considerable cantidad de información sobre este complejo sistema de escritura. Tipos de inscripciones Puede dividirse en secciones diferentes en virtud del contenido u objeto de las inscripciones. Hay siete grupos o tipos principales, a partir sobre todo de la sistematización hecha para la epigrafía romana: Inscripciones religiosas, que se ofrecen y dedican a las divinidades o dioses; cuando son el resultado de alguna promesa se denominan votivas. Jurídicas o legales, que contienen leyes, edictos, decretos o epístolas oficiales. Públicas o monumentales que se graban en construcciones de carácter público y oficial, por ejemplo edificios, arcos de triunfo, puentes, templos, etc. expresando con frecuencia sus autores o el motivo y fecha de su construcción. Históricas: generalmente conmemoran hechos importantes, como los fastos. Honoríficas, dedicadas a honrar la memoria de un personaje distinguido. Funerarias o sepulcrales, son epitafios que recuerdan la muerte y señalan el lugar de entierro de alguien. Menores, llamadas en general instrumenta domestica: sobre objetos de uso común, como los hechos de cerámica, vidrio, marfil, etc.; pueden ser mecánicas o estampilladas (como los sellos sobre las ánforas o la vajilla de mesa) o espontáneas (esgrafiados, letreros pintados, etc.). Materiales empleados Epigrafía romana Desde la toba volcánica que era preferentemente empleada en las inscripciones más antiguas (hasta el 121 a. C.) dado que se utilizaba más bien la caliza para las inscripciones. Cuando se pasó a la técnica de la incisión, se hizo necesario un soporte más fuerte y liso como el travertino y luego el mármol de Carrara. Está documentada la existencia de talleres de lápidas y escultores en Roma, Pompeya y Ostia pues se han encontrado obras a medio hacer, preparadas para ser «personalizadas» al momento del encargo. Lo mismo se diga para inscripciones preparadas sin datos de manera que fueran completados tras la compra. Dos empleos: El grabador, quien con el hacha o el cincel realizaba la incisión del texto. El quadratarius que se encargaba de preparar las marcas del llamado campo epigráfico: los márgenes y el espacio que debían emplear las letras o entre líneas. El efecto de claroscuro propio de algunos epígrafes antiguos se produce por la punta triangular del cincel. Hay también indicaciones de la coloración que se introducía sobre todo en aquellas incisiones menos profundas. Normalmente rojo aunque también oro o azul. Sin embargo, resulta difícil su estudio debido a que por la naturaleza misma del pigmento empleado se ha perdido. Tenemos el testimonio de este uso incluso en fuentes del tiempo como Plinio el Viejo. Estilos de corte Las primeras inscripciones, que a menudo son obra de aficionados, suelen ser muy irregulares en su corte. Pero en casi todos los ejemplos de obras posteriores, las inscripciones son evidentemente cortadas por profesionales, y hay estilos y métodos definidos que pertenecen a diversos lugares y periodos. En Egipto, por ejemplo, los jeroglíficos se recortan con cuidado y delicadeza en los primeros tiempos, y en épocas posteriores se vuelven más descuidados y convencionales. En Grecia, el mejor trabajo se realizó en los siglos y a. C. en Atenas; las letras eran todas exactas y regulares en su forma, sin adornos adventicios, y estaban, especialmente en el , por lo general exactamente alineadas con las letras superiores e inferiores, así como con las de cada lado. En aquella época, todos los trazos tenían el mismo grosor, pero en el y posteriormente se introdujo la costumbre de sujetar el cincel oblicuamente a la superficie, produciendo así un trazo en forma de cuña. Una costumbre similar en Mesopotamia dio lugar al llamado sistema cuneiforme. En las inscripciones metálicas de Grecia, este mismo efecto aparece antes que en las de piedra o mármol. En el y posteriores se hace común introducir apices o terminaciones ornamentales a los trazos, costumbre que prevalece hasta nuestros días en nuestras mayúsculas ordinarias. La costumbre de hacer diferentes trazos y diferentes partes de curvas de grosor variable se hizo común en las Inscripciones romanas, que desarrollaron un estilo monumental propio, que variaba de un periodo a otro. A menudo, las inscripciones pueden datarse de forma aproximada tanto por el estilo del corte como por las formas de las letras; la habilidad para hacerlo sólo puede adquirirse mediante un estudio cuidadoso y minucioso de originales y facsímiles. El tamaño de las inscripciones varía mucho en función de la posición en la que iban a ser leídas, de su finalidad y de la habilidad del grabador. Algunas inscripciones son de gran longitud, la más larga, un estado de cuentas del templo de Delos, bajo administración ateniense, es casi la mitad de larga que un libro de Tucídides; y muchas otras inscripciones se acercan a esta longitud. La epigrafía en España España es un lugar especialmente rico en inscripciones celtibéricas, ibéricas, griegas, romanas, visigodas y árabes. Destacaron en su estudio, durante el , Juan Catalina, Aureliano Fernández-Guerra, Fidel Fita, José Amador de los Ríos, Eduardo Saavedra y el gran compilador alemán Emil Hübner, autor del Corpus Inscriptionum Latinarum (1869-1892), entre otras obras. En el , entre los ya fallecidos, Manuel Gómez-Moreno, Antonio García y Bellido o Joaquín María de Navascués en el entre toda la región de la ciudad de EE.UU todas las regiones que significa estados unidos Inscripciones notables Decreto de Trecén Disco de Festo Edictos de Ashoka Estela 1 de La Mojarra Inscripción de Behistún Inscripción de Bitola Inscripción del Dípilon Inscripción Duenos Inscripción de Kedukan Bukit Inscripción sobre cobre de Laguna Inscripción de Shugborough Mausoleo libio-púnico de Dougga Piedra de Rosetta Res gestae Divi Augusti Referencias Bibliografía Chiara Lambert, Pagine di Pietra. Manuale di epigrafia latino-campana tardoantica e medievale, CUES, Salerno 2004, p. 29-33 Enlaces externos ¿Qué es la Epigrafía? Reedición moderna del Corpus Inscriptionum Latinarum Hispania Epigraphica On Line (HEpOL) Anticuarios y epigrafistas españoles de los siglos XVI-XVIII Anticuarios y epigrafistas españoles del siglo XIX en adelante Epigrafía ibérica Recursos del Grupo CHIRON Poinikastas: Epigraphic Sources For Early Greek Writing, Oxford University Current Epigraphy The Epigraphic Society Professor Barry Fell (Harvard University), Professor Norman Totten, Bentley College, Epigraphic Society Occasional Papers (ESOP) Signs of Life Exhibición Virtual . Ciencias históricas en la categoria de control de actividades en las regiones del pueblo que da vilingue internacionalmente con la epigrafia national