Páginas

miércoles, 28 de febrero de 2018

El cristal líquido

El cristal líquido es un tipo especial de estado de agregación de la materia que tiene propiedades de las fases líquida y sólida. Su principal característica es su anisotropía, es decir, sus propiedades cambian según la dirección en la que se examinen. Por ejemplo, en un cristal líquido las moléculas tienen libertad de movimiento en un plano, pero no entre planos.

AplicacionesSu anisotropía, junto con su respuesta frente a la electricidad, lo hacen idóneo para la fabricación de pantallas electrónicas.

Una pantalla LCD (Liquid Crystal Display) está formada por una serie de píxeles. Si se trata de una pantalla a color, cada uno de ellos tendrá tres subpíxeles, o células, de color rojo, verde y azul. Variando la intensidad de la luz que pasa por cada uno de ellos se puede crear prácticamente cualquier color.
Para regular la luz que pasa por cada célula, se utiliza el siguiente mecanismo:

La pantalla está formada por una capa de moléculas de cristal líquido alineadas entre dos electrodos transparentes y dos filtros de polarización, perpendiculares entre sí. Sin el cristal líquido, la luz que entra por un filtro no pasaría el filtro opuesto.

Las partículas de cristal líquido adyacentes a cada uno de los filtros están alineadas con él, pero los planos de cristal están dispuestos de forma helicoidal, de manera que la orientación de las partículas va rotando hasta coincidir en el otro extremo con el filtro perpendicular.

Todo este sistema se encuentra entre dos diodos eléctricos. Si se hace pasar corriente por ellos (de una intensidad mínima), las partículas de cristal se disponen paralelamente al campo eléctrico producido, retorciéndose la estructura helicoidal y variando la cantidad de luz que puede atravesar la pantalla. Esto es posible gracias a la capacidad elástica de la estructura cristalina. Si la pantalla es retroiluminada tendrá incorporada, lógicamente, una fuente de luz tras ella.

Este sistema es empleado en televisores y monitores LCD y, de una forma mucho más simple, en displays de pequeños aparatos electrónicos, como despertadores.

Ventajas e inconvenientesUna de las mayores ventajas de las pantallas LCD es su luminosidad, incluso en lugares muy iluminados. Además, su durabilidad oscila entre 500 000 y 600 000 horas, frente a las 30 000 / 40 000 que dura una pantalla de plasma, una de sus principales rivales. Finalmente, consumen de un 10 a un 20% menos.

Sin embargo, la tecnología LCD tiene varias desventajas. Solo permite mostrar imágenes correctamente en su resolución nativa, emborronándose la imagen si no es así.

Por otro lado, el contraste y el tiempo de respuesta son mejores en pantallas de plasma. En una pantalla LCD, los objetos en movimiento rápido no se muestran con nitidez.
Además, el ángulo de visión en una LCD es importante. Esto lo podemos comprobar inclinando la pantalla de nuestro portátil. Si es LCD, veremos como varían el brillo y los colores dependiendo del ángulo con que la miremos.

Con la introducción de las pantallas LCD con retroiluminación LED, se mejoró notablemente el contraste de las LCD y se redujo aún más su consumo.

Presente y futuroEn los últimos años, la tecnología del cristal líquido ha sufrido un crecimiento exponencial, en gran medida por la proliferación de los teléfonos móviles y otros dispositivos de pantalla táctil.

Las pantallas táctiles se pueden clasificar en dos tipos:

Resistivas: Son más baratas y no les afectan el polvo ni el agua, y además de ser más precisas pueden ser usadas con un puntero o con el dedo. Sin embargo, pierden hasta un 25% del brillo original de la retroiluminación y son más gruesas, por lo que están siendo sustituidas por otras en los dispositivos móviles que precisan un tamaño y un peso ajustados y mayor brillo en la pantalla por la posibilidad de estar expuestos a la luz directa del sol. Están formada por varias capas, de las cuales las más importantes son 2 muy finas de material conductor que están un poco separadas. Cada vez que pulsamos la pantalla con el dedo o un puntero de tipo Stylus estas dos capas se unen en el punto pulsado produciendo un cambio de corriente y así la resistencia eléctrica creada da la orden en pantalla.

Capacitivas: Basadas en sensor capacitivo. Consisten en un aislamiento eléctrico como el cristal, recubierto con un conductor transparente como el ITO (tin-doped indium oxide). Como el cuerpo humano es también un conductor eléctrico, tocando la superficie de la pantalla resulta una distorsión del campo electrostático de la pantalla, la cual es medida por el cambio de capacitancia (capacidad eléctrica). Diferentes tecnologías pueden ser usadas para determinar en que posición de la pantalla fue hecho el toque. La posición es enviada a el controlador para el procesamiento. La calidad de imagen es mejor, tienen mejor respuesta y algunas permiten el uso de varios dedos a la vez (multitouch). Sin embargo, son más caras y no se pueden usar con puntero normal, sino con uno especial para las pantallas capacitivas.

El suelo

La parte de la geología que estudia las rocas se denomina litología; su descripción es el objeto de la petrografía. Las rocas son materias minerales que en cantidades considerables forman parte de la corteza terrestre. En ecología, es de interés el conocimiento sobre la formación de los suelos, en los cuales las rocas juegan un papel muy importante.


La formación y composición del suelo consistente en rocas sedimentarias y morrenas glaciales, constituyen el aporte de minerales al suelo, así como un elemento indispensable para su formación, mediante un proceso por el cual las rocas son alteradas mecánicamente por acción de diversos agentes, principalmente atmosféricos y con el transcurso del tiempo.
  
La composición de las rocas
Las rocas pueden estar constituidas por partículas minerales agregadas del mismo género, o de distinta estructura cristalina y composición química. En general, las rocas están formadas por varias especies minerales o rocas compuestas.


Cuando las rocas están formadas por una sola especie mineral se llaman rocas simples. Los minerales que constituyen las rocas se dividen en esenciales, accesorios y secundarios. Los esenciales definen el tipo de roca de que se trata; los accesorios son materias que pueden o no estar presentes; y los secundarios son aquellos minerales que aparecen en escasa cantidad. La información sobre la petrogénesis de las rocas, se obtiene mayormente atendiendo a la estructura y textura, además de la que complementariamente proporcionan la composición química y mineralógica.


Según sus orígenes, las rocas se clasifican en sedimentarias, metamórficas e ígneas o magmáticas.

Rocas sedimentarias

Las rocas sedimentarias son aquellas que están compuestas por materias que han sufrido una transformación, y en la que se ha producido depósito y acumulación de minerales disgregados, ya sea por acción del viento, agua o erosión glacial. El efecto de estos elementos, así como la velocidad de deposición o naturaleza de la materia depositada, produce diferencias visibles en las capas por su diferente color o composición (lechos de sedimentos paralelos).


Las rocas sedimentarias pueden tener un origen mecánico (fragmentario) o químico. Las de origen mecánico están compuestas de partículas minerales, fruto de la desintegración por un efecto mecánico de otras rocas, y que posteriormente fueron arrastradas por el agua con toda su integridad química, siendo depositadas en capas. Ejemplo de materiales que tienen este origen mecánico son la arenisca (masas de arena o cuarzo), el esquisto micáceo (mica y arcilla o barro), y el conglomerado (grava litificada).


Las rocas sedimentarias que tienen origen químico pueden estar compuestos de caliza, consistentes en restos de organismos marinos microscópicos decantados sobre el suelo oceánico; o también depositarse en los lagos o fondos marinos a partir de la roca madre, después de la evaporación y posterior precipitación de las disoluciones salinas. Ejemplo de este caso es el yeso (sulfato de calcio hidratado), la halita (sal gema, o sal común mineralizada) y la anhídrida (sulfato de cal anhidro).

Rocas metamórficas

Las rocas metamórficas son aquellas que han sufrido alteración de su composición y textura original, por efecto del calor, presión y fluidos del interior de la corteza terrestre, formando gneis, cuarcitas, etc. A esta transformación metamórfica se le llama dinamotérmico o regional cuando sucede por la acción de la presión o temperatura; y térmico o de contacto cuando viene influenciado por rocas ígneas (magma).


Según se den circunstancias térmicas o dinamotérmicas, se distinguen varios tipos de rocas metamórficas. El esquisto, por ejemplo, a bajas temperaturas se metamorfiza en pizarra, pero se metamorfiza en filita si queda sometido a temperaturas suficientemente elevadas como para recristalizarse.

Rocas ígneas o magmáticas
Las rocas ígneas o magmáticas, son aquellas que se han formado por enfriamiento y solidificación del magma o materia rocosa fundida, es decir, la materia ígnea y fundida (total o parcialmente) de silicatos y elementos volátiles que se encuentra debajo o en el interior de la corteza terrestre.


Los magmas pueden ser ácidos (con más de un 60 % de anhídrido de silicio) y básicos (con menos cantidad de anhídrido de silicio). Los magmas pueden irrumpir en la corteza terrestre y desparramarse en ésta en forma de lavas o gases (vulcanismo) o consolidarse en su interior (plutonismo).

Cuando esta consolidación tiene lugar en profundidad y con enfriamiento lento, se originan las rocas ígneas o plutónicas (por ejemplo granitos, sienitas, dioritas); cuando se verifica en la superficie con enfriamiento y solidificación rápida, se forman las rocas ígneas extrusivas o volcánicas (por ejemplo siolitas, traquitas, basaltos); si se produce en una zona intermedia aprovechando grietas o fracturas aparecen las rocas ígneas filonianas (por ejemplo aplitas, magmáticas, pórfidas). En su mayoría, las rocas ígneas están compuestas por silicatos, por ello se tiende a su clasificación según su contenido en sílice.


Finalmente, se reconoce la roca viva, como aquella que tiene su raíz muy profunda, no tiene mezcla de tierra y no está formada por capas.


Aunque la ecología también se ocupa del estudio del suelo, es en realidad otra ciencia que se encuentra entre la biología y la geología, denominada edafología, la encargada de su estudio integral. Por su parte, la ecología considera al suelo y sus factores abióticos como actuantes sobre los seres vivos, y lo define dentro del ecosistema global como un ecosistema particular.


A la capa superficial de la corteza terrestre donde se desarrollan las raíces de los vegetales se le denomina suelo. Duchafour lo definió como un medio complejo, cuyas características son: atmósfera interna, régimen hídrico particular, fauna y flora determinadas y elementos minerales. 


Se trata de estructuras dinámicas que van cambiando desde sus inicios hasta adquirir un equilibrio con el entorno, aunque en el proceso de formación pueden llegar a ser destruidos por la erosión.


Al proceso de formación y desarrollo de los suelos se le denomina edafogénesis. Los factores que intervienen en este proceso son: el clima, el relieve, la actividad biológica, la composición litológica y el tiempo de actuación de todos ellos.


La actividad biológica favorece la disgregación física de la roca madre (consistente en rocas sedimentarias y/o morrenas glaciales), fundamentalmente mediante la acción de las raíces de los vegetales, pero también interviene de forma notable en la meteorización química por medio de los ácidos húmicos, procedentes de la descomposición de restos orgánicos. La composición litológica de la roca madre determina cuáles serán los productos de alteración originados por la meteorización; por tanto, influye en el grado de acidez del suelo resultante.

La roca madre constituye el aporte de elementos minerales cuando se produce su disgregación y descomposición; finalmente, con el transcurso del tiempo y la acción conjunta del clima y vegetación, se produce la mezcla de los elementos entre sí y con el aire y agua.

martes, 27 de febrero de 2018

El neurobiólogo mexicano que reprograma cerebros

El neurobiólogo mexicano Luis Alberto Carrillo Reid desarrolló una técnica que, mediante el uso de láser y proteínas fotosensibles, reprograma los circuitos o grupos neuronales afectados por enfermedades neurodegenerativas —como Alzheimer y Parkinson.

El procedimiento se logra mediante la optogenética —método utilizado para "encender" y "apagar" grupos neuronales a partir del uso de la luz— y por la técnica de microscopía de doble fotón que permite la visualización y manipulación de los tejidos vivos hasta un milímetro de profundidad, así activa grupos muy específicos de neuronas.

Luis Carrillo Reid utilizó dicha tecnología durante cuatro años en la Universidad de Columbia en Nueva York y actualmente se ha propuesto implementar la tecnología en México a través del Instituto de Neurobiología de la Universidad Nacional Autónoma de México (UNAM).

En entrevista para la Agencia Informativa Conacyt, el doctor en ciencias explicó la importancia de este trabajo en la apertura de nuevas líneas de investigación en neurociencias, no solo en el país sino en el mundo.

Neuronas activas e inactivas

El objetivo principal para el desarrollo de esta tecnología es cambiar los patrones de actividad en grupos neuronales muy específicos.

“Ha sido demostrado previamente que en diversas enfermedades como Parkinson, esquizofrenia o epilepsia, la actividad de ciertos grupos neuronales está alterada, es decir, tienen actividad patológica o patrones de actividad que no deberían tener”, explicó.

La microscopía de doble fotón activa grupos neuronales específicos y se observa la actividad neuronal por medio de indicadores de calcio que son genéticamente codificados, “son compuestos fluorescentes que brillan cuando las neuronas tienen actividad”.

Para reactivar las neuronas, Luis Carrillo Reid utiliza opsinas, proteínas que se estimulan por medio de luz, y en este caso la luz utilizada proviene de un láser posicionado únicamente en las neuronas que quieren activarse, así las opsinas dejan entrar iones a las células y permiten su excitación.

El especialista busca que por medio de estas técnicas se manipulen ópticamente los circuitos neuronales, cambiar sus patrones de actividad en el caso de que sean patológicos y así revertir los efectos catastróficos de las enfermedades neurodegenerativas.

De regreso en México

Durante su estancia en la Universidad de Columbia en Nueva York, Carrillo Reid logró avances significativos que permitieron la publicación de sus resultados en el ejemplar de agosto de 2016 de la revista Science bajo el título Imprinting and recalling cortical ensembles. En ese mismo año, regresó a México con el objetivo de implementar este tipo de experimentos a través del apoyo de instituciones como el Consejo Nacional de Ciencia y Tecnología (Conacyt).

“La etapa en que se encuentra el trabajo en Columbia ya está muy avanzada, de hecho tengo varios artículos allá utilizando estas técnicas, y ahora estoy en la fase de escribir proyectos al Conacyt para solicitar apoyo y poder empezar a establecer esta tecnología en América Latina”, explicó.

La UNAM es quien encabeza el proyecto a nivel nacional pero aún hace falta equipo físico para las investigaciones, así como estudiantes que sean capaces de llevar a cabo proyectos de esta índole. 

Memoria artificial

De acuerdo con el especialista, el equipo requerido para llevar a cabo totalmente estos estudios en México es un microscopio de dos fotones, también una serie de láseres que registren y activen simultáneamente células seleccionadas por medio de diferentes longitudes de onda.

Carrillo Reid desarrolló todas estas técnicas en el laboratorio de la Universidad de Columbia en Nueva York durante cuatro años y demostró que por medio de la estimulación puntual y estrictamente selectiva de un grupo de neuronas —corticales— se podía generar una especie de memoria artificial.

Como este trabajo se encuentra en desarrollo, las tecnologías utilizadas todavía no han sido aprobadas para uso humano, “todos los protocolos para manipular genéticamente neuronas en humanos todavía están por aprobarse, yo creo que aún estamos a unos cinco o diez años de que permitan hacer realidad estas pruebas”.

Luis Carrillo Reid espera que en los próximos años la comunidad neurocientífica nacional se sume a la iniciativa mundial de entender el funcionamiento cerebral, y si logran distinguir exactamente a las neuronas involucradas en alguna actividad anormal o patología, las manipularían para revertir los efectos patológicos que provocan enfermedades neurodegenerativas.

“Regresé a México por los jóvenes; para formar estudiantes que tengan un pensamiento crítico basado en el método científico y que puedan tomar decisiones informadas para hacer cambios en la ciencia en México y en la sociedad”, concluyó.

domingo, 25 de febrero de 2018

Flor

Una Flor típica consta de cuatro capas o verticilos unidos al extremo modificado del tallo llamado receptáculo. 

Los verticilos son:
1. Cáliz: representa el primer verticilo floral por ser el más externo o inferior. Está formado por hojas modificadas denominadas sépalos.

2. Corola: representa el segundo verticilo floral en orden ascendente; está formado por hojas denominadas pétalos que en general presentan modificaciones muy variadas en color y forma.

3. Estambres: forman un verticilo que se encuentra dentro de la corola. Cada estambre tiene un pedicelo delgado o filamento, en cuya parte superior se encuentra una antera, que es el órgano portador de polen. El verticilo o agrupamiento de estambres se denomina androceo.

4. Carpelo: el o los carpelos constituyen el verticilo central; tomados en conjunto, los carpelos se conocen como gineceo. Cada una de las estructuras del gineceo se denomina comúnmente pistilo.Un pistilo puede componerse de uno o más carpelos unidos en el centro de la flor. Hay tres partes distintas en cada pistilo:
a) una porción basal extendida, el ovario, en el que se producen los óvulos, es una estructura hueca que puede tener una o varias cámaras llamadas lóculos,
b) el estilo, un pedicelo delgado que sostine al
c) estigma, lugar en donde se deposita el polen.

Perianto: se emplea este término para nombrar al cáliz y a la corola colectivamente (los dos verticilos exteriores se pueden distinguir morfológicamente).
Perigonio: es el perianto no diferenciado en cáliz y corola.
Tépalos: son las piezas que constituyen al perigonio, es decir cuando los dos verticilos exteriores (cáliz y corola) no se pueden distinguir morfológicamente.

Elevación de las partes Florales: las diferentes partes florales se disponen unas por encima de otras, presentándose en el siguiente orden comenzando por las de abajo: sépalos, pétalos, estambres y carpelos.

Inflorescencia: Cuando las flores se presentan agrupadas, a la unidad en su conjunto se denomina inflorescencia.

Amento: es uan espiga que tiene por lo común tan sólo flores unisexuadas (pistiladas o estaminadas) y apétalas.

Cabeza: es una inflorescencia en la que las flores se reúnen sobre un eje muy corto.

Cabezuela o Capítulo: agrupación densa de flores sin pedicelo.

Cima: la parte superior del eje principal de la planta produce una flor que abarca toda la parte superior, por lo que el eje deja de alargarse.

Corimbo: inflorescencia amplia y extendida, en la cual los pedicelos inferiores se van alargando suscesivamente, dando a la inflorescencia la apariencia de estar aplanada en el extremo.

Espádice: inflorescencia parecida a una espiga, gruesa o carnosa, con flores muy pequeñas que se encuentran reunidas y por lo común incluidas en una espata (bráctea alargada que encierra a la inflorescencia).

Espiga: el eje principal de la inflorescencia se alarga, pero las flores se localizan sobre su eje y no tienen pedicelo.

Panícula o panoja: es un tipo de racimo pero compuesto o ramificado.

Racimo: se denomina así a la inflorescencia cuyo eje principal tiene ramas cortas o pedicelos, cada pedicelo tiene aproximadamente la misma longitud y termina en una flor.

Tirso: panícula compuesta y compacta con un eje principal y ejes laterales.

Umbela: se denomina así a la inflorescencia en la cual las flores brotan como en una sombrilla, teniendo sus pedicelos longitudes casi iguales.

Verticilo: inflorescencia que presenta las flores arregladas en estructuras que están en planos alrededor de un tallo.

Huracanes y Tornados

La atmosfera
División.- Se le divide en varias capas según su densidad, composición y diversas propiedades, siendo la Tropósfera la más baja, (se toma como punto de referencia cero el nivel del mar para de ahí hacia arriba medir las capas atmosféricas). La tropósfera inicia en el nivel del mar hasta unos doce kilómetros en promedio, siendo menor en los polos (nueve kilómetros) y mayor en el ecuador (18 kilómetros), seguido de la Estratósfera, que le sigue hasta aproximadamente 50 kilómetros de altura, seguida de la Mesósfera la cual llega a 80 u 85 kilómetros de la superficie, continuada por la Termósfera que inicia alrededor de los 100 Km (en la llamada línea de kármán) la cual limita a los 500 Km de altura con la Exósfera, que es la capa más externa de la atmósfera, la cual limita con el espacio interestelar.

Tropósfera.- Es la capa en la que se desarrolla la vida, así como los diferentes fenómenos atmosféricos como movimientos de masa de aire y vapor de agua; es en donde se forman las nubes y en donde se dan la mayoría de los diferentes fenómenos climáticos, lluvias, cambios térmicos, vientos, y en donde por la composición gaseosa que tiene se desarrolla la vida de la superficie terrestre. Es dentro de esta capa, donde vuelan las aves y la mayoría de los aviones. En ella la temperatura desciende conforme se aumenta la altitud llegando a los 50 grados bajo cero en los límites con la estratósfera, y de la misma manera escasea el oxígeno al aumentar la altitud.


Estratósfera.- Es la capa atmosférica que sigue a la Tropósfera, iniciando desde entre los 10 u 18 kilómetros en que termina la tropósfera hasta aproximadamente los cincuenta kilómetros sobre el nivel del mar. En ella va aumentando la temperatura que existe en la tropopausa (frontera entre la troposfera y la estratosfera), que ahí es de entre los 50 o 55 grados centígrados bajo cero, aumentando la temperatura al ir subiendo la altitud, debido a la falta de humedad y a los efectos del ozono, que se encuentra dentro de la estratósfera (casi a su final), en donde se reúne alrededor del 90% del ozono atmosférico, que es el responsable de absorber entre el 97 y 99 % de las radiaciones ultra violeta (principalmente rayos UV de los tipos UV-B y UV-C, que son dañinos a los seres vivos, y sin embargo dejan pasar parte de los rayos UV del tipo UV-A, que no son tan dañinos para la vida, (y que incluso son necesarios en ciertas cantidades para los seres vivos), permitiendo la existencia de la vida. A la altura de esta parte de la atmósfera sólo pueden volar algunos aviones supersónicos del tipo del Concord, Mig-31 o el SR-71, que pueden soportar los cambios de presión y temperatura que se dan en esas alturas.

Mesósfera.- La mesósfera es la capa que continúa a la estratósfera; comienza alrededor de los 50 kilómetros de la superficie, extendiéndose hasta los 80 kilómetros de altura. Es mayor proporcionalmente que las otras capas anteriores, en ella se encuentran alrededor del 0,1% de la masa total del aire, siendo nitrógeno y oxígeno los gases predominantes en ella, aunque también hay ozono y otros gases. En esta parte de la atmósfera la presión es mucho menor a la de la estratósfera. Conforme se aumenta la altitud disminuye la temperatura entre los 70 u 80 grados bajo cero, llegando incluso a los 90 grados bajo cero, siendo la parte más fría de la atmósfera.

Termósfera.- La termosfera o Ionosfera, en esta parte de la atmósfera la temperatura del aire cambia dependiendo de la mayor o menor radiación solar que incida en ella tanto en el día como a través del año, llegando a existir temperaturas de 1500 grados centígrados o más. Es en esta parte de la atmósfera en la que se producen las llamadas auroras boreales y polares.

Exósfera.- Es la parte más externa de la atmósfera, comienza entre 600 u 800 kilómetros de la superficie, terminando entre 2000 o 10000 kilómetros; es la región atmosférica más distante de la superficie terrestre, lindando con el espacio exterior. En esta zona la presión es mínima, siendo casi inexistente. En ella las partículas del aire pierden sus cualidades físico-químicas. Constituyéndose principalmente por materia plasmática (materia en el estado de plasma). El esta parte de la atmósfera la ionización de las moléculas (partículas) determina que la atracción del campo magnético de la tierra sea mayor que la del campo gravitatorio. Es la parte de la atmósfera en la que la densidad de átomos es menor acercándose al vacío conforme se eleva la altura llegando al espacio exterior.

¿QUÉ SON LOS HURACANES?Los huracanes se forman solamente en las aguas calientes del trópico cerca pero nunca en el Ecuador. En el Atlántico se forman se forman cada año, algunos quedan en el mar, unos entran a tierra y otros continúan en línea recta hacia América Central. Pero todavía mas huracanes se forman en el Pacifico Oriental algunos de ellos se mueven sobre las costas de México pero en su mayoría se mueven fuera de las costas como el huracán Edith en 1992 llegando hasta Hawai.

En el Pacifico el área de agua caliente es mas amplia y permite la formación de mas huracanes. Le llaman Tifones en vez de huracanes cuando los vientos alcanzan más de 74 millas por horas.

En el Pacifico Occidental se forman mas huracanes que en ninguna otra parte del mundo, algunos de ellos azotan el sureste de de Asia y estos tienden a ser los mas violentos en el mundo. Se le llaman ciclones al sur del Ecuador, Australia es azotada ocasionalmente por uno de estos.

Los huracanes rozan en dirección contraria a las del hemisferio norte, pero son los mismos fenómenos.

Los ciclones también se forman al sur del Océano Indico un poco mas al norte se forman en el Océano Arábico.

Pero los que causan mas muertes ocurren en la bahía de Bengala, aun ciclones débiles que azotan esta zona pueden causar serios desastres. En 1992 un ciclón azoto el área de Bangladesh matando alrededor de medio millón de personas.

Pero los huracanes no solo causan muerte y destrucción, estos existen en la naturaleza por unas razones. Los huracanes son una fuente efectiva de la naturaleza deshacerse del aire caliente en el trópico, los huracanes son malos de por sí, pero si no existieran hubiera algo mucho peor.

Nuestros huracanes se forman generalmente de disturbios tropicales que se forman sobre África. Alrededor de 100 disturbios se mueven sobre el Atlántico en los meses de Junio a noviembre, pero un promedio de sólo seis se desarrollan en huracanes. Hay otras dos fuentes para que los huracanes se desarrollen, una es una banda de nubosidad al norte del Ecuador conocida como la zona de convergencia intertropical, en ocasiones un área de nubosidad donde el frente de la anda se mueve hacia el norte y se intensifica en huracán.

La otra causa es por un frente frío que baja desde Estados Unidos y se estaciona sobre agua caliente, después de varios días una masa amplia de nubosidad se puede convertir en huracán.

¿CÓMO UNA MASA DE NUBE SE CONVIERTE EN HURACÁN?El proceso exacto es complejo y no se entiende muy bien hasta e momento, pero si podemos demostrar los principios básicos de formación en una cocina.


Sabemos que los huracanes necesitan de una fuente de calor, una temperatura del océano de 80ºF o más, este calor pasa a la atmósfera de dos formas; a medida que calentamos un salten con agua podemos sentir el calor subiendo hacia el aire sobre el sartén, esta es la 1ra forma de transferencia de calor. La otra forma la podemos ver si observamos el sartén con agua por un rato, el agua desaparece gradualmente. ¿Pero realmente desaparece? Se evaporó en el aire. La energía que se utilizó para evaporar el agua también pasa al aire y esa energía se pierde como calor cuando las gotas de agua se forman.

En un huracán que se esta desarrollando la presión en el centro baja a medida que el agua caliente sube; el aire de los alrededores comienza a moverse hacia el área de baja presión.

La rotación de la tierra hace que el aire gire en contra de las manecillas del reloj en el hemisferio norte.

Otra pregunta muy común es 

¿Por qué se forman tan pocos huracanes?Aparentemente se necesita una combinación única y exacta de un número de eventos para formar una tormenta tropical o huracán, esta receta precisa de vientos, nubes y temperatura solo se consigue ocasionalmente.

A la vez que se desarrolla un huracán el rasgo mas peculiar es el ojo, un área donde no hay lluvia, pocas nubes y vientos leves producidos por el aire que desciende, regularmente su diámetro es de 15 a 30 millas, la presión del aire más baja de la superficie se encuentra en esta área.


Alrededor del ojo encontramos también la nube de pared, un cilindro de nubes altas que puede medir de 8 a 10 millas de altura, el aire aquí asciende rápidamente por lo que se encuentran los vientos y lluvias más fuertes; un avión caza huracanes que viaja a través del ojo y de la nube de pared puede distinguir el contraste increíble que hay entre ambas áreas, si nos alejamos del centro del huracán podemos ver las bandas de nubes en forma de espiral alrededor del huracán; debajo de las nubes, bandas de espiral de lluvias fuertes y vientos intensos pueden producir breves periodos de condiciones de tiempo severos cientos de millas fuera del ojo. El área afectada por el huracán se extiende unos cientos de millas de diámetro pero el área de destrucción máxima se extiende unas 50 millas de ancho. En contraste, un tornado solo afectaría una pequeña fracción del área.


Una vista tridimensional de un huracán fuerte muestra otra parte de su estructura: el viento en los niveles altos de la atmósfera, el aire cerca de la superficie entra y asciende, pero el aire tiene que ir a algún lugar, en los niveles altos de la atmósfera el viento fluye hacia fuera a favor de la manecilla del reloj.

sábado, 24 de febrero de 2018

Ecología general

Generalidades

Hay que reconocer a los biólogos y geógrafos un papel fundamental en los inicios de la ecología. Es justo recordar el aporte considerable de los griegos clásicos. Por ejemplo, Aristóteles, además de filósofo, fue un biólogo y naturalista de gran talla. Baste citar sus libros sobre la vida y costumbres de los peces, fruto de sus diálogos con pescadores, y sus largas horas de observación personal.



Si nos trasladamos al siglo XVIII, cuando la Biología y la geografía se están transformando en las ciencias modernas que hoy conocemos, es imprescindible reconocer el carácter absolutamente ecológico del trabajo de los primeros fisiólogos en su progresivo descubrimiento de las relaciones entre la vida vegetal y animal con los factores abióticos tales como la luz, el agua o el carbono. Entre los muchos ejemplos posibles, es suficiente recordar las investigaciones de Réaumur en el campo de la temperatura, así como las de Leeuwenhoeck acerca de la formación del almidón en las plantas verdes.
En 1869, el biólogo alemán Ernst Haeckel acuñó el término ecología, remitiéndose al origen griego de la palabra (oikos, casa; logos, ciencia, estudio, tratado). Según entendía Haeckel, la ecología debía encarar el estudio de una especie en sus relaciones biológicas con el medio ambiente. Otros científicos se ocuparon posteriormente del medio en que vive cada especie y de sus relaciones simbióticas y antagónicas con otras.Haeckel escribió: "Entendemos por ecología, el conjunto de conocimientos referentes a la economía de la naturaleza, la investigación de todas las relaciones del animal tanto en su medio inorgánico como orgánico, incluyendo sobre todo su relación amistosa u hostil con aquellos animales y plantas con los que se relaciona directa o indirectamente. En pocas palabras, la ecología es el estudio de todas las complejas interrelaciones a las que Darwin se refería como las condiciones de la lucha por la existencia.

Resulta siempre artificial el querer precisar etapas históricas en la sistematización de una nueva ciencia, porque los diversos centros de interés que constituyen sus principales objetivos o paradigmas acostumbran a ser investigados simultáneamente por distintos grupos científicos. Sin embargo, puede resultar práctico fijar ciertas cronologías que nos orienten, insistiendo en los aspectos más característicos de la biografía de cada época. Aplicando este principio al siglo XX, se pueden señalar distintas etapas sobresalientes. Por ejemplo, el encuentro entre ecólogos, botánicos y zoólogos tiene lugar hacia la década de 1920, cuando se empieza a hablar de comunidades ecológicas mixtas y de bioecología, prefiriéndose esta nueva expresión a las tradicionales de ecología vegetal y ecología animal.


La ecología es la ciencia que estudia las interrelaciones de los diferentes seres vivos entre sí y con su entorno Estudia cómo estas interacciones entre los organismos y su ambiente afecta a propiedades como la distribución o la abundancia. En el ambiente se incluyen las propiedades físicas y químicas que pueden ser descritas como la suma de factores abióticos locales, como el clima y la geología, y los demás organismos que comparten ese hábitat (factores bióticos).

Se trata de una ciencia descriptiva y experimental; con un gran número de aplicaciones, particularmente en lo que respecta a la conservación de los recursos naturales.

Actualmente, tras ser redefinida por Taylor en 1936 como la ciencia de todas las relaciones, de todos los organismos, con todos sus ambientes; la ecología goza de un sentido más amplio, pasando a ser una ciencia de síntesis. Paradójicamente, puede que nuestra propia subsistencia dependa de la correcta aplicación de esta ciencia.

La ecología es la rama de la Biología que estudia las interacciones de los seres vivos con su hábitat. Esto incluye factores abióticos, esto es, condiciones ambientales tales como: climatológicas, edáficas, etc.; pero también incluye factores bióticos, esto es, condiciones derivadas de las relaciones que se establecen con otros seres vivos. Mientras que otras ramas se ocupan de niveles de organización inferiores (desde la bioquímica y la biología molecular pasando por la biología celular, la histología y la fisiología hasta la sistemática), la ecología se ocupa del nivel superior a éstas, ocupándose de las poblaciones, las comunidades, los ecosistemas y la biosfera. Por esta razón, y por ocuparse de las interacciones entre los individuos y su ambiente, la ecología es una ciencia multidisciplinaria que utiliza herramientas de otras ramas de la ciencia, especialmente geología, meteorología, geografía, sociología, física, química y matemáticas.






Haeckel, que tuvo un papel importante en la popularización de la teoría evolucionista de Charles Darwin, realizó importantes trabajos de clasificación de especies y publicó diversas obras donde están fundamentadas sus teorías. Además se desempeñó como profesor de Anatomía y Zoología en distintas universidades, y son notables sus aptitudes para el dibujo, patentes en numerosas ilustraciones de su autoría.

jueves, 22 de febrero de 2018

La biosfera

La biosfera es la parte de la corteza terrestre en la cual se desarrolla o es posible la vida, es decir, desde determinada altura de la atmósfera hasta el fondo de los océanos.

Este espacio vital abarca unas zonas llamadas biociclos: el biociclo del agua salada (mares y océanos), biociclo del agua dulce (ríos y lagos), y biociclo terrestre (suelo y el aire en contacto con él).

La biosfera comprende (aproximadamente) la hidrosfera, la zona más superficial de la litosfera y la parte inferior de la troposfera, es decir, abarca desde unos 50 km. de altitud en la atmósfera, hasta los fondos de los océanos más profundos. En la biosfera la vida depende de la circulación de nutrientes esenciales, calor y energía solar.

El medio en que se desarrolla la vida, la biosfera, consta pues de troposfera, hidrosfera (mares, océanos y aguas continentales), y la parte más externa de la corteza terrestre (litosfera). En la biosfera existe vida en todas las áreas emergidas, y hasta unos pocos metros de profundidad del suelo.


La atmósfera 
Los gases fundamentales que forman la atmósfera son: Nitrógeno (78.084%), Oxígeno (20.946%), Argón (0.934%) y Dióxido de Carbono (0.033%). Otros gases de interés presentes en la atmósfera son el vapor de agua, el ozono y diferentes óxidos.

También hay partículas de polvo en suspensión como, por ejemplo, partículas inorgánicas, pequeños organismos o restos de ellos y sal marina. Muchas veces estas partículas pueden servir de núcleos de condensación en la formación de nieblas muy contaminantes.

Los volcanes y la actividad humana son responsables de la emisión a la atmósfera de diferentes gases y partículas contaminantes que tienen una gran influencia en los cambios climáticos y en el funcionamiento de los ecosistemas.

El aire se encuentra concentrado cerca de la superficie, comprimido por la atracción de la gravedad y, conforme aumenta la altura, la densidad de la atmósfera disminuye con gran rapidez. En los 5,5 kilómetros más cercanos a la superficie se encuentra la mitad de la masa total y antes de los 15 kilómetros de altura está el 95% de toda la materia atmosférica.

La mezcla de gases que llamamos aire mantiene la proporción de sus distintos componentes casi invariable hasta los 80 km, aunque cada vez más enrarecido (menos denso) conforme vamos ascendiendo. A partir de los 80 km la composición se hace más variable.



Formación de la atmósfera
La mezcla de gases que forma el aire actual se ha desarrollado a lo largo de 4.500 millones de años. La atmósfera primigenia debió estar compuesta únicamente de emanaciones volcánicas, es decir, vapor de agua, dióxido de carbono, dióxido de azufre y nitrógeno, sin rastro apenas de oxígeno.

Para lograr la transformación han tenido que desarrollarse una serie de procesos. Uno de ellos fue la condensación. Al enfriarse, la mayor parte del vapor de agua de origen volcánico se condensó, dando lugar a los antiguos océanos. También se produjeron reacciones químicas. Parte del dióxido de carbono debió reaccionar con las rocas de la corteza terrestre para formar carbonatos, algunos de los cuales se disolverían en los nuevos océanos.

Más tarde, cuando evolucionó la vida primitiva capaz de realizar la fotosíntesis, empezó a producir oxígeno. Hace unos 570 millones de años, el contenido en oxígeno de la atmósfera y los océanos aumentó lo bastante como para permitir la existencia de la vida marina. Más tarde, hace unos 400 millones de años, la atmósfera contenía el oxígeno suficiente para permitir la evolución de animales terrestres capaces de respirar aire.

sábado, 17 de febrero de 2018

Carl von Linné [Linneo]

(Carolus Linnaeus en latín; Linneo en castellano; Rashult, Suecia, 1707 - Uppsala, id., 1778) Botánico sueco. Su temprano interés por las plantas hizo que a la edad de ocho años se le conociera ya por el apodo del Pequeño Botánico, si bien compaginó esta vocación con los estudios de medicina, que cursó en las universidades de Lundt y Uppsala, y con su establecimiento, en 1738, en esta última ciudad como médico privado y como profesor de medicina en su universidad (1741). Además de realizar expediciones botánicas a Laponia, por cuenta de la Academia de Ciencias de Uppsala, amplió sus estudios de medicina en los Países Bajos, y recorrió otros países europeos, como Gran Bretaña y Francia. Fue catedrático de botánica en la Universidad de Uppsala (1742).


Considerado el creador de la clasificación de los seres vivos o taxonomía, desarrolló un sistema de nomenclatura binomial (1731) que se convertiría en clásico, basado en la utilización de un primer término, escrito en letras mayúsculas, indicativa del género y una segunda parte, correspondiente al nombre específico de la especie descrita, escrita en letra minúscula. Por otro lado, agrupó los géneros en familias, las familias en clases, las clases en tipos (fila) y los tipos en reinos.

Con anterioridad a sus trabajos habían existido ya intentos de introducir cierto orden en la aparente confusión que supone la ingente proliferación de seres vivos. El primero que trató de establecer una clasificación fue J.-P. de Tournefort (1656-1708) mediante la introducción de un sistema clasificatorio natural basado en la «realidad objetiva de las especies, los géneros y las clases». Casi simultáneamente John Ray redactó una obra monumental, Historia plantarum generalis (1686-1704), en la que intentó distribuir de una manera racional las plantas y definir con precisión, básicamente, la noción de especie a través del establecimiento de sus relaciones con una comunidad de origen.

viernes, 16 de febrero de 2018

Sistema binomial

El botánico sueco Carlos Linneo reveló los problemas en el arreglo sistemático de la botánica y esbozó su propio método de clasificación, en el cual las especies eran entidades reales que podrían agruparse en categorías superiores llamadas género. Parte de la innovación de Linneo fue agrupar los géneros en taxa superiores que se basaban en similitudes compartidas: los géneros en órdenes, los órdenes en clases, y las clases en reinos. Simplificó la nomenclatura científica al dar un nombre latino para designar al género y uno para la especie, la nomenclatura binomial.

Los primeros nombres que tuvieron las plantas y animales eran nombres comunes, pero estos tienen los siguientes inconvenientes:

· No son universales, sólo son aplicables a una lengua
· Sólo algunas plantas o animales tienen nombre vernáculo.
· A menudo, dos o más organismos no relacionados tienen el mismo nombre común o un mismo organismo tiene diferentes nombres comunes.
· Se aplican indistintamente a géneros, especies o variedades.

Las normas básicas para la escritura de los nombres científicos son:
· Se usa el latín o palabras latinizadas.
· La primera letra del género va en mayúscula; el resto del nombre (la especie) va en minúscula.
· Cuando se imprime, el nombre científico se escribe con letra cursiva (o itálica). Cuando se escribe a mano o a máquina, se subraya.
· Al final del nombre científico se acompaña el apellido abreviado del autor que lo describió. Lam es abreviación de Lamarck y L de Linneo. Así, por ejemplo, el encino es Quercus rotundifolia Lam, el pino piñonero es Pinus pinea L.

martes, 13 de febrero de 2018

Biodiversidad y Taxonomía

Biodiversidad: La expresión “biodiversidad” o “diversidad biológica”, describe la cantidad y variedad de organismos vivos que hay en el planeta. Se define en términos de genes, especies y ecosistemas, que son el resultado de la evolución biológica. La especie humana depende de la biodiversidad para su supervivencia, por lo que puede considerarse a esta expresión como sinónimo de “vida sobre la Tierra”.
TAXONOMÍA: La Taxonomía identifica y asigna nombres científicos a los organismos basada en las relaciones evolutivas naturales. Un buen sistema de clasificación permite a los biólogos saber muchas cosas acerca de un organismo si conoce las características del grupo al que pertenecen.
La clasificación es la asignación de organismos a grupos dentro de un sistema o jerarquía de categorías distinguidos por su estructura, orígenes y otros rasgos. Existen varios tipos de clasificación:
· Sistema artificial. Estrictamente utilitario basado en el hábito, color, forma u otros caracteres de un tipo similar.
· Sistema natural. Basado en formas de parentesco.
· Sistema filogenético. Cimentado en la historia del parentesco racial y en la descendencia evolutiva común.

SISTEMA BINOMIAL DE LINNEO: El botánico sueco Carlos Linneo reveló los problemas en el arreglo sistemático de la botánica y esbozó su propio método de clasificación, en el cual las especies eran entidades reales que podrían agruparse en categorías superiores llamadas género. Parte de la innovación de Linneo fue agrupar los géneros en taxa superiores que se basaban en similitudes compartidas: los géneros en órdenes, los órdenes en clases, y las clases en reinos. Simplificó la nomenclatura científica al dar un nombre latino para designar al género y uno para la especie, la nomenclatura binomial.

lunes, 12 de febrero de 2018

El colmo de la escuela es no aprender

En esta edición de “EC=Pablo Boullosa”, el conductor y titular del programa nos cuenta cómo la escuela a pesar de ser la institución que debería liderar la enseñanza, carece ella misma de un auto aprendizaje.


Tomas Morgan

En 1909, Thomas H. Morgan (1866-1945), un biólogo norteamericano que había visitado el laboratorio del botánico Hugo De Vries (1848-1935) en Holanda y había quedado impresionado por su trabajo, abandonó sus investigaciones en embriología y comenzó otras nuevas en genética. La riqueza de datos que surgió de estos estudios fue tan impresionante, que este período de la investigación genética, que duró hasta la Segunda Guerra Mundial, ha sido caracterizado como ''la edad de oro de la genética" (aunque algunos dirían que la edad de oro es la actual).

Con una notable combinación de intuición y suerte, Morgan eligió a la mosquita de la fruta, Drosophila melanogaster, como su organismo experimental. Finalmente, la mosquita de la fruta demostró ser un "material ideal" para una gran variedad de investigaciones genéticas. En las décadas siguientes, las especies de Drosophila se hicieron famosas como la principal herramienta de los biólogos para los estudios de genética animal. En la actualidad, también constituyen uno de los organismos más utilizados en los estudios de genética del desarrollo.

Tal vez el más importante de los principios establecidos por Morgan y sus colegas fue que los factores de Mendel, los genes, están ubicados en los cromosomas.

Un fuerte apoyo a la hipótesis de que los genes están en los cromosomas, provino de los estudios hechos por el genetista Morgan y su grupo en la mosquita de la fruta D. melanogaster. Dado que es fácil de criar y mantener, la Drosophila ha sido usada en una variedad de estudios genéticos. Esta mosca tiene 4 pares de cromosomas; 3 pares –los autosomas– son estructuralmente iguales en ambos sexos, pero el cuarto par, los cromosomas sexuales, es diferente. En la mosquita de la fruta, como en muchas otras especies (incluidos los humanos), los dos cromosomas sexuales son XX en las hembras y XY en los machos.



En el momento de la meiosis, los cromosomas sexuales, al igual que los autosomas, segregan. Cada óvulo recibe un cromosoma X, pero la mitad de los espermatozoides recibe un cromosoma X y la otra mitad, un cromosoma Y. Así, en Drosophila, en los humanos y en muchos otros organismos (aunque no en todos), es el gameto paterno el que determina el sexo de la progenie.

En los primeros años del siglo XX, los experimentos de cruzamientos de Drosophila mostraron que ciertas características están ligadas al sexo, o sea, que sus genes se encuentran en los cromosomas sexuales. Los genes ligados al X dan lugar a un patrón de herencia particular. En los machos, como no hay otro alelo presente, la existencia de un alelo recesivo en el cromosoma X es suficiente para que la característica se exprese en el fenotipo. Por oposición, una hembra heterocigota para una variante recesiva ligada al X portará esa variante, pero ésta no se manifestará en su fenotipo.

¿Que es un cladograma?

Un cladograma es un diagrama que permite representar el parentesco evolutivo entre las especies. Este se parece a un árbol genealógico en que la base del árbol representa un antepasado común para los organismos o grupos ubicados al final de las ramas. Cuando hay una ramificación en un linaje esta se representa con una nueva rama. Todos los descendientes de esta nueva rama comparten un mismo ancestro y están más cercanos entre si que con los descendientes de otras ramas. Cada cladograma por representar las relaciones evolutivas entre un grupo de seres vivos se considera una teoría científica.

Actividad:
Descarga y lee el artículo "Ilustrando el parentesco evolutivo"
Para poder realizar un cladograma

domingo, 11 de febrero de 2018

Neutralismo y equilibrio puntuado

Cuando se estudia el registro fósil, los paleóntologos ponían en duda elgradualismo que afirma la teoría sintética de la evolución. Si el gradualismo fuera cierto, debería haber multitud de fósiles con características intermedias entre una especie y otra, mostrando un cambio lento y continuo en la evolución. Pero en muchos casos, desaparece de repente una especie y aparece otra.

Según algunos paleontólogos, como Stephen Jay Gould, creen que es más acertada la teoría del equilibrio puntuado o intermitente (1972). Según esta teoría, las especies están mucho tiempo sin ningún cambio o con cambios poco importantes (periodos de tiempo llamados estasis), pero en determinados momentos, algunas especies tienen periodos de cambio muy rápido.

No hay que confundir el puntualismo con el saltacionismo. El saltacionismopostula que aparecen nuevas especies en una sola generación, y el puntualismo no está a favor de eso.

El puntualismo no niega el neodarwinismo, sino que propone una explicación para los casos en los que se produce una rápida diversificación de especies.

Por ejemplo, en el Cámbrico hubo una gran diversificación de especies que no se podría explicar con el gradualismo del neodarwinismo.


Teoría neutralista o neutralismo.
El biólogo japonés Motoo Kimura, en 1968 propuso la teoría neutralista, en la que trató de ajustar la teoría sintética de la evolución a los nuevos conocimientos de labiología molecular. Kimura cree que la mayor parte de las mutaciones no son beneficiosas ni perjudiciales, son neutras. Por tanto, la selección natural no influye sobre las mutaciones.

Aunque no niega la importancia de la selección natural en la evolución adaptativa, cree que es más importante la deriva genética de los mutantes. Es decir, el que haya más o menos alelos en una población depende del azar, en forma de deriva genética, no de la presión selectiva.

La teoría neutralista habla de un nivel molecular, ya que a nivel macroscópico sigue afirmando que la selección natural es el motor evolutivo.



viernes, 9 de febrero de 2018

Herencia no mendeliana

Herencia intermedia
Experimentos con flores de camelia, dieron resultados diferentes a los obtenidos por Mendel. Al cruzar una planta de línea pura, que produce flores rojas, con una planta de línea pura que produce flores blancas, se obtiene en la primera generación plantas con flores rosadas, es decir, un rasgo intermedio al de los dos progenitores puros. Cuando las plantas de flores rosadas se cruzan entre sí, la F2 resultante produce 25% de plantas de flores rojas, 50% de flores rosadas y 25% de flores blancas, con lo que se obtiene una proporción del color de las flores o fenotípica de 1:2:1.
Estos resultados ocurren si uno de los alelos para el color de la flor ejerce una dominancia incompleta sobre el otro alelo. Otros rasgos con herencia incompleta son: braquidactilia y anemia falciforme.

Genes ligados
Los genes se separan independientemente durante la meiosis; sin embargo, existen grupos de genes en un mismo cromosoma. Un ejemplo de ligamiento lo constituyen los genes del grupo sanguíneo Rh y los genes HLA (Antígeno Leucocitario Humano).
En el chícharo dulce, el color de flor púrpura (P) domina sobre el rojo (p), y la forma larga de polen (L) domina sobre la redonda (l). Cuando un chícharo homocigoto de polen largo y de flor púrpura se cruza con uno de polen redondo y de flor roja, toda la F1 tiene flores púrpuras y polen largo.
Así los fenotipos de la F2 no se presentan como 9:3:3:1, sino que tienen 75% de plantas de polen largo y flor púrpura y 25% de polen redondo y flor roja. Sin embargo, los genes para el color de la flor y la forma del polen están en el mismo cromosoma de tal manera que los genes se distribuyen juntos durante la meiosis y se heredan juntos.




Herencia ligada al sexo
Existen rasgos determinados por genes que se encuentran en cualquiera de los dos cromosomas sexuales: X o Y. Por esta razón, las proporciones que se obtienen en la descendencia, así como los mecanismos por los cuales se heredan, cambian respecto a los genes que se encuentran en los cromosomas somáticos.

jueves, 8 de febrero de 2018

Herencia Mendeliana

Los principios establecidos por Mendel se agrupan en un modelo genético denominado: herencia mendeliana. Esto implica que los patrones hereditarios, tanto rasgos normales como alteraciones hereditarias, se rigen por las leyes de Mendel.


Herencia autosómica dominante
Es aquella donde sólo se necesita uno de los genes para que se exprese una mutación Si una persona tiene un alelo dominante defectuoso desarrollará la enfermedad. Se conoce como autosómica porque el gen se encuentra en un cromosoma somático o autosoma. La anomalía será más extrema o severa en los individuos homocigotos que en los heterocigotos. Puede llegar a ser letal. Por lo general, las enfermedades genéticas graves no son frecuentes, puesto que los productos se abortan o mueren en la infancia. Se heredan de modo autosómico dominante: braquidactilia, enanismo acondroplásico, enfermedad de Hutington, polidactilia y aniridia.

Herencia autosómica recesiva
Este tipo de herencia se expresa únicamente cuando en el genotipo de un individuo hay dos genes alelos recesivos que pueden ser normales o dañados (mutados). Casi todas las enfermedades causadas por la falta de una enzima esencial, se heredan como recesivas. Generalmente los portadores son heterocigotos para el gen puesto que llevan un alelo normal y otro alterado. Son personas fenotípicamente normales pero que pueden transmitir su alelo defectuoso a sus hijos.


El riesgo de presentar una enfermedad heredada de esta forma aumenta con la consaguinidad, pero puede suceder que individuos sin ningún parentesco entre sí tengan el mismo gen (alelo) defectuoso, por lo que tendrán un 25% de probabilidades de tener un hijo (homocigoto) afectado.
Se heredan de forma autosómica recesiva la anemia drepanocítica, albinismo, fenilcetonuria y fibrosis quística, entre otras.



miércoles, 7 de febrero de 2018

Equilibrio puntuado

La selección natural es el mecanismo evolutivo más comúnmente aceptado por la comunidad científica, aunque se han formulado varias teorías sobre otros posibles motores evolutivos. Aunque minoritarias, estas propuestas siguen alimentando un interesante debate dentro de la biología evolutiva, y posiblemente permitan alcanzar si no el «nuevo paradigma» que algunos vaticinan, sí una reformulación de la teoría sintética de la evolución que la dote de un mayor poder explicativo.

Y es que estas nuevas propuestas no suponen el desmantelamiento de la teoría evolutiva, como parecen creer en algunos medios, todo lo contrario, se trata de nuevos puntos de vista sobre algunos aspectos de ésta que pueden contribuir a su mejora, más que a su invalidación. En algunos casos, ciertamente, modifican el proceso mutación->selección->fijación/desaparición, pero en otros, solo cambian el ritmo o complementan a la mutación como fuente de variación, poniéndose incluso por encima de ella en importancia. Sin embargo, independientemente del proceso que produzca el nuevo carácter (o en algunos casos, incluso, la nueva especie), argumentaremos en este artículo y siguientes como la selección natural sigue actuando irremediablemente sobre el resultado.

El Equilibrio Puntuado de Gould y Eldredge
En 1972, los paleontólogos Niles Eldredge y Stephen Jay Gould formularon la teoría del Equilibrio Puntuado (Punctuated Equilbrium), aunque quizá la traducción literal del término no es la más adecuada, y sería más correcto emplear “Equilibrio Intermitente”; no obstante, utilizaremos la primera forma, dado que es la más empleada en castellano.

Básicamente, Gould y Eldredge afirman que el proceso evolutivo no consiste en el cambio gradual contínuo que postula el neodarwinismo. Por el contrario, el Equilibrio Puntuado explica que las especies se mantienen en un estado de estasis, con nulos o mínimos cambios durante largos períodos de tiempo, para sufrir en determinados momentos una «explosión evolutiva» durante la que se producen grandes cambios en cortos periodos de tiempo. Además, estos cambios no producirían una especiación «lineal» como propone la teoría sintética, sino un tipo de «evolución en mosaico» o ramificada donde los rápidos cambios morfológicos originarían varias especies distintas partiendo de la forma original.

La teoría del Equilibrio Puntuado no debe confundirse con el Saltacionismo, hipótesis según la cual un gran cambio producido por macromutación puede originar una nueva especie en una única generación. El Saltacionismo está prácticamente abandonado como hipótesis evolutiva, salvo en algunos casos particulares como la poliploidía en los vegetales.

Según la teoría del Equilibrio Puntuado, una especie permanecería invariable durante la inmensa mayoría de su existencia, incluso aunque el hábitat cambie. Para explicar este fenómeno, Eldredge (1995) introduce el concepto de «seguimiento del hábitat» («habitat tracking»): ante un cambio ambiental, la especie persigue su hábitat original en lugar de adaptarse a nuevas condiciones mediante selección natural.

La especiación se produciría por el aislamiento reproductivo de una pequeña sub-población, cuyo limitado tamaño produce una relativa inestabilidad evolutiva, anulando las condiciones que mantienen la estasis y sufriendo una tasa evolutiva muy rápida durante el tiempo necesario para que se restablezcan estas condiciones de estasis. Esto produciría una radiación evolutiva a partir de la pequeña población que originará multitud de formas nuevas, mientras el «grueso» de la especie se mantiene estática hasta su extinción. De esta forma, el Equilibrio Puntuado entiende la especiación como un caso especial de especiación alopática, con un período que puede ser tan corto, geológicamente hablando, como 5.000 a 50.000 años (Eldredge, 1995) hasta cientos de miles o pocos millones de años (Gould, 1995).

Así pues, las modificaciones que propone el Equilibro Puntuado a la Teoría Sintética afectan fundamentalmente a dos aspectos: por un lado el ritmo evolutivo, frente al gradualismo contínuo, el EP propone largos períodos de estasis y cortos períodos de explosión evolutiva) y por otro el modo de especiación, donde en lugar de la especiación lineal o filogenética, se postula una especiación ramificada que origina numerosas especies diferentes en un corto espacio de tiempo.

¿Que dice el registro fósil?
El registro fósil muestra muy a menudo que las especies permanecen estables durante mucho tiempo, desapareciendo después bruscamente. En muchas ocasiones, también muestra radiaciones evolutivas donde un elevado número de especies surgen repentinamente y prácticamente sin registro de formas intermedias anteriores.

Estas peculiaridades han sido justificadas por el gradualismo, desde el propio Darwin, alegando que el registro fósil es muy incompleto y, por lo tanto, la poca representación de formas intermedias no invalidaría la teoría. Sin embargo, el Equilibrio Puntuado predice exactamente el tipo de registro fósil observado (Ridley 1993), por lo que éste constituiría una representación fidedigna del proceso evolutivo, más que una muestra incompleta de lo que realmente ocurrió (Gould, 1980).

Equilibrio Puntuado vs. Teoría Sintética
Durante cierto período (1977-1982), Eldredge y Gould adoptaron una postura más radical de la teoría, lo que ha venido a llamarse «la versión fuerte» (Hoffman, 1992) en la que la especiación resultaría ser un fenómeno evolutivo causado por un proceso macroevolutivo propio, irreductible a los procesos de cambio microevolutivo que operan dentro del marco del medio ambiente y la constitución biológicade una especie. En esos momentos, el Equilibrio Puntuado se presentaba como una alternativa a la Teoría Sintética.

Pero en realidad, ambas teorías no resultan incompatibles. Tanto los procesos de especiación explosiva y ramificada propios del EP, como los cambios graduales y lentos pueden estar dándose simultáneamente en la historia evolutiva de la vida. Aunque en menor cantidad, también existen pruebas fósiles de formas intermedias que parecen obedecer a la evolución lineal propia del gradualismo neodarwinista.

Por otro lado, la especiación del Equilibrio Puntuado no excluye la Selección Natural. Por rápida y diversa que resulte la especiación, las nuevas formas se verán sometidas a la competencia por los recursos, tanto intra como interespecíficamente, moldeando el mapa final mediante la selección de las adaptaciones más exitosas. De hecho, Gould (1980) señala que no pretende definir el cambio puntuacional como único mecanismo, sino como otra alternativa al cambio evolutivo, dado que el gradualismo funciona bien en ocasiones.

Dawkins (1986) opina que el Equilibrio Puntuado no representa una nueva teoría, sino una modificación al concepto neodarwinista debido a la variación de la tasa de evolución, constituyendo de esta forma una complementación al darwinismo.

Otros autores (Chacón y Barahona, 2002) llegan a sugerir que el Equilibrio puntuado es en la actualidad una teoría de rango medio, en el sentido de Merton (1968): una teoría a caballo entre las hipótesis de trabajo y las teorías generales (en este caso la Teoría Sintética), al ocuparse únicamente de ciertos aspectos parciales del proceso evolutivo. Según estos autores, la Teoría Sintética habría absorbido la mayor parte de los postulados del Equilibrio Puntuado.

A pesar de que en estas posturas conciliadoras quizá no se atribuya toda la importancia que tiene el establecimiento por parte del EP de la estasis como condición normal en la evolución de las especies (Broyles, 1997) y a la «versión fuerte» de la teoría, realmente no existe contradicción propiamente dicha entre las tesis centrales de la Teoría Sintética y el Equilibrio Puntuado. Sin abandonar la existencia de procesos graduales de especiación en ciertos casos, el EP aporta una explicación a los largos períodos sin apenas cambios y a las radiaciones evolutivas observadas en el registro fósil, manteniendo la fuentes de variación -mutaciones- y el mecanismo selectivo -selección natural- como pilares del cambio evolutivo.