lunes, 29 de junio de 2015

Guías de examen extraordinario 2015

Los alumnos que tienen que presentar el examen Extraordinario de Temas selectos de biología o Biología , le dejo la guía actualizada del 2015 para presentar el examen, por favor asistan a las asesorías que se estarán dando en el siguiente horario: Lun y Mar de 7:00 a 8:00 de la mañana y el Mier y Vier de 12:00 a 13:00 horas. Por favor asistan ya que se resolverán las dudas correspondientes.
Suerte!!! 
Guia de Biología
Guia de Temas

viernes, 26 de junio de 2015

Escarabajo Goliat

El Escarabajos Goliat es un género de coleópteros de la familia Scarabaeidae. Estos gigantes insectos son los más voluminosos que existen, aunque no los de mayor longitud.

Un escarabajo Goliat adulto puede medir entre 5 a 11 centímetros de longitud, y su larva puede llegar a pesar 100 gramos. Son tan grandes que cuando vuelan producen un sonido similar al de un helicóptero.

Las larvas de los Escarabajos viven del suelo, requiere gran cantidad de proteinas obtenidas de material vegetal en descomposición, como la madera podrida y la acumulación de hojas en descomposición. Las larvas son capaces de crecer hasta 130 mm de largo, y alcanzar pesos superiores a 100 gramos.



escarabajo-goliat-03
escarabajo-goliat-04
escarabajo-goliat-05
escarabajo-goliat-06

viernes, 19 de junio de 2015

Guía de Extraordinario de Temas

Bienvenidos a todos los alumnos de generaciones pasadas y actuales que por desgracia tienen que hacer el examen extraordinario de Temas Selectos de biología, aquí tienen una guía de estudio para que comiencen a preparar su examen. Mucha suerte!!!

Descarga la guía presionando el botón

El telescopio Hubble

 Díficil de Creer
En este programa:

El telescopio Hubble

Las hormigas Zombies (hongos cordiceps)

La ciencia del Deporte

La vida de Oscar Pistorio

Protesis

Guía de Extraordinario de Biología

Bienvenidos a todos los alumnos de generaciones pasadas y actuales que por desgracia tienen que hacer el examen extraordinario de biología, aquí tienen una guía de estudio para que comiencen a preparar su examen. Mucha suerte!!!

Descarga la guía presionando el botón

Medicamento que mejora el deseo sexual de las mujeres

Los funcionarios de salud del Gobierno que asesoran a la “Food and Drug Administration” (FDA) han dado su apoyo y recomendación al "Viagra femenino”, pero con restricciones de seguridad y ciertas condiciones.



El panel de la Administración de Alimentos y Medicamentos, votó 18-6 a favor del fármaco llamado flibanserina, diseñado para aumentar el deseo sexual de las mujeres que han perdido su libido.

El fármaco fue rechazado en dos ocasiones por la FDA, la primera vez en 2010 y la segunda en 2013, debido a las preocupaciones sobre los efectos secundarios. Sin embargo, otros grupos afirman que la verdadera barrera para conseguir la píldora aprobada es uno de sexismo inherente.



La principal preocupación sobre el uso de la droga (y la razón por la que ha estado estancada durante los últimos cinco años) era la seguridad. La FDA afirma que los efectos secundarios, como mareos, náuseas y presión arterial baja, superan a los beneficios derivados. Ponen de relieve el hecho de que algunas mujeres tuvieron que abandonar el estudio debido a tales efectos negativos extremos.

Otras mujeres que participaron en el ensayo clínico de la píldora rosa, se han encantado con sus buenos efectos. Algunas de estas 11 mil mujeres dieron testimonio en la audiencia, explicando al panel cómo les había afectado psicológicamente y emocionalmente el perder su deseo sexual, y cómo la píldora era capaz de darles alivio.



El fabricante de la droga, Sprout Pharmaceuticals, después del primer rechazo de la FDA en 2010, dijo que los ensayos demuestran que la flibanserina funciona mejor que un placebo en el impulso de la libido de las mujeres, el aumento en la satisfacción sexual, y la reducción de la depresión asociada con el trastorno del deseo sexual hipoactivo.

Aunque se ha conocido como el "Viagra femenino", esto es realmente un nombre inapropiado, ya que funciona de una manera completamente diferente. Mientras que el Viagra funciona simplemente aumentando el flujo de sangre, la flibanserinaen realidad altera la química del cerebro. Influye en los niveles de dopamina y serotonina en el cerebro, hormonas conocidas por jugar un papel en el deseo sexual y motivación.



Sprout afirma que después de 24 semanas, entre el 46 y 60% de las mujeres habían experimentado resultados benéficos de la droga. Sin embargo algunos señalaron que cuando se toma el efecto placebo en cuenta, la droga en sí sólo tiene efecto en torno al 10% de las mujeres.

Grupos de defensa de algunas mujeres argumentan que mientras que hay alrededor de 26 medicamentos diferentes disponibles y comercializados para loshombres con disfunción eréctil, no hay un solo medicamento dirigido a las necesidades sexuales de las mujeres. Dicen que la FDA ha rechazado repetidamente flibanserina debido a una sociedad intrínsecamente sexista.

Otros han señalado, que no hay 26 medicamentos diferentes, pero 26 marcas diferentes sí, y, en realidad, sólo hay alrededor de 6 medicamentos separados utilizados para tratar la disfunción eréctil. Pero aún así, son seis más que los que existen para las mujeres.



El comité concluyó que las mujeres actualmente no tienen nada en el mercado que les ayude con un bajo deseo sexual, el fármaco debe ser puesto a disposición, incluso si los beneficios son moderados, siempre y cuando tengan advertencias adecuadas y las mujeres sean notificadas acerca de los posibles efectos secundarios.

Si la FDA da luz verde a la flibanserina, este debería ser comercializado en verano de 2015.

martes, 16 de junio de 2015

Terremotos y Tsunamis


Los terremotos, sismos, seismos, temblores de tierra (del griego “σεισμός”, temblor), o temblor de tierra es una sacudida del terreno que se produce debido al choque de las placas tectónicas y a la liberación de energía en el curso de una reorganización brusca de materiales de la corteza terrestre al superar el estado de equilibrio mecánico son reajustes de la corteza terrestres causados por los movimientos de grandes fragmentos.
Dicho de otra manera, un sismo o temblor es un reajuste de la corteza terrestre causado por los movimientos vibratorios de las placas tectónicas del planeta y se propaga por él en todas direcciones en forma de ondas.
Por sí mismos, son fenómenos naturales que no afectan demasiado al hombre. El movimiento de la superficie terrestre que provoca un terremoto no representa un riesgo, salvo en casos excepcionales, pero sí nos afectan sus consecuencias, ocasionando catástrofes: caída de construcciones, incendio de ciudades, avalanchas y tsunamis.
Aunque todos los días se registran una buena cantidad de terremotos en el mundo, la inmensa mayoría son de poca magnitud. Sin embargo, se suelen producir dos o tres terremotos de gran intensidad cada año, con consecuencias imprevisibles.

Origen


La causa de los terremotos es la liberación de tención de las placas tectónicas.

La causa de un temblor es la liberación súbita de energía dentro del interior de la Tierra por un reacomodo de ésta. Este reacomodo se lleva a cabo mediante el movimiento relativo entre placas tectónicas. Las zonas en donde se lleva a cabo este tipo de movimiento se conocen como fallas geológicas (la falla de San Andrés es un ejemplo) y a los temblores producidos se les conoce como sismos tectónicos. No obstante existen otras causas que también producen temblores. Ejemplo de ello son los producidos por el ascenso de magma hacia la superficie de la Tierra. Este tipo de sismos, denominados volcánicos, nos pueden servir de aviso de una posible erupción volcánica.

Movimientos sísmicos

Las placas de la corteza terrestre están sometidas a tensiones. En la zona de roce (falla), la tensión es muy alta y, a veces, supera a la fuerza de sujeción entre las placas. Entonces, las placas se mueven violentamente, provocando ondulaciones y liberando una enorme cantidad de energía. Este proceso se llama movimiento sísmico o terremoto. 
La intensidad o magnitud de un sismo, en la escala de Richter, representa la energía liberada y se mide en forma logarítmica, del uno al nueve. La ciencia que estudia los sismos es la sismologia y los científicos que la practican, sismólogos.
Aunque las actividades tectónica y volcánica son las principales causas por las que se generan los terremotos, existen otros muchos factores que pueden originarlos: desprendimientos de rocas en las laderas de las montañas y el hundimiento de cavernas, variaciones bruscas en la presión atmosférica por ciclones e incluso la actividad humana. Estos mecanismos generan eventos de baja magnitud que generalmente caen en el rango de microsismos, temblores que sólo pueden ser detectados por sismógrafos.

Sismógrafo Vertical

La estadística sobre los sismos a través de la historia es más bien pobre. Se tiene información de desastres desde hace más de tres mil años, pero además de ser incompleta, los instrumentos de precisión para registrar sismos datan de principios del siglo XX y la Escala de Richter fue ideada en 1935.
Un terremoto de gran magnitud puede afectar más la superficie terrestre si el epifoco u origen del mismo se encuentra a menor profundidad. La destrucción de ciudades no depende únicamente de la magnitud del fenómeno, sino también de la distancia a que se encuentren del mismo, de la constitución geológica del subsuelo y de otros factores, entre los cuales hay que destacar las técnicas de construcción empleadas.
Los intentos de predecir cuándo y dónde se producirán los terremotos han tenido cierto éxito en los últimos años. En la actualidad, China, Japón, Rusia y Estados Unidos son los países que apoyan más estas investigaciones. En 1975, sismólogos chinos predijeron el sismo de magnitud 7,3 de Haicheng, y lograron evacuar a 90.000 residentes sólo dos días antes de que destruyera el 90% de los edificios de la ciudad. Una de las pistas que llevaron a esta predicción fue una serie de temblores de baja intensidad, llamados sacudidas precursoras, que empezaron a notarse cinco años antes.
Otras pistas potenciales son la inclinación o el pandeo de las superficies de tierra y los cambios en el campo magnético terrestre, en los niveles de agua de los pozos e incluso en el comportamiento de los animales. También hay un nuevo método en estudio basado en la medida del cambio de las tensiones sobre la corteza terrestre. Basándose en estos métodos, es posible pronosticar muchos terremotos, aunque estas predicciones no sean siempre acertadas.

Zonas del Terremoto

El punto interior de la Tierra donde se produce el sismo se denomina foco sísmico o hipocentro, y el punto de la superficie que se halla directamente en la vertical del hipocentro —y que, por tanto, es el primer afectado por la sacudida— recibe el nombre de epicentro.
En un terremoto se distinguen:
hipocentro o foco, zona interior profunda, donde se produce el terremoto.
epicentro, área de la superficie perpendicular al hipocentro, donde repercuten con mayor intensidad las ondas sísmicas.
La probabilidad de ocurrencia de terremotos de una determinada magnitud en una región concreta viene dada por una distribución de Poisson. Así la probabilidad de ocurrencia de k terremotos de magnitud M durante un período T en cierta región está dada por:
Donde:
Tr (M) es el tiempo de retorno de un terremoto de intensidad M, que coincide con el tiempo medio entre dos terremotos de intensidad M.

Propagación

El movimiento sísmico se propaga mediante ondas elásticas (similares al sonido), a partir del hipocentro. Las ondas sísmicas se presentan en tres tipos principales:

Ondas de propagación producida por los terremotos
Ondas longitudinales, primarias o P: tipo de ondas de cuerpo que se propagan a una velocidad de entre 8 y 13 km/s y en el mismo sentido que la vibración de las partículas. Circulan por el interior de la Tierra, atravesando tanto líquidos como sólidos. Son las primeras que registran los aparatos de medida o sismógrafos, de ahí su nombre “P”.
Ondas transversales, secundarias o S: son ondas de cuerpo más lentas que las anteriores (entre 4 y 8 km/s) y se propagan perpendicularmente en el sentido de vibración de las partículas. Atraviesan únicamente los sólidos y se registran en segundo lugar en los aparatos de medida.
Ondas superficiales: son las más lentas de todas (3,5 km/s) y son producto de la interacción entre las ondas P y S a lo largo de la superficie de la Tierra. Son las que producen más daños. Se propagan a partir del epicentro y son similares a las ondas que se forman sobre la superficie del mar. Este tipo de ondas son las que se registran en último lugar en los sismógrafos.

Fallas Geológicas

Uno de los accidentes del terreno que se puede observar más fácilmente son las fallas o rupturas de un plegamiento, especialmente si el terreno es de tipo sefimentario.

Falla de San Andrés; pasa a través de California Estados Unidos y Baja California, México.
Las fallas son un tipo de deformación de la corteza terrestre que finaliza en ruptura, dando lugar a una gran variedad de estructuras geológicas.
Cuando esta ruptura se produce de forma brusca, se produce un terremoto. En ocasiones, la línea de falla permite que, en ciertos puntos, aflore el magma de las capas inferiores y se forme un volcán.

Partes de una falla

El plano de falla es la superficie sobre la que se ha producido el movimiento, horizontal, vertical u oblicuo. Si las fracturas son frágiles, tienen superficies lisas y pulidas por efecto de la abrasión. Durante el desplazamiento de las rocas fracturadas se pueden desprender fragmentos de diferentes tamaños.
Los labios de falla son los dos bordes o bloques que se han desplazado. Cuando se produce un desplazamiento vertical, los bordes reciben los nombres de labio hundido (o interior) y labio elevado (o superior), dependiendo de la ubicación de cada uno de ellos con respecto a la horizontal relativa. Cuando está inclinado, uno de los bloques se desliza sobre el otro. El bloque que queda por encima del plano de falla se llama “techo” y el que queda por debajo, “muro”.
El salto de falla es la distancia vertical entre dos estratos que originalmente formaban una unidad, medida entre los bordes del bloque elevado y el hundido. Esta distancia puede ser de tan sólo unos pocos milímetros (cuando se produce la ruptura), hasta varios kilómetros. Éste último caso suele ser resultado de un largo proceso geológico en el tiempo.

Tipos de fallas

En una falla normal, producida por tensiones, la inclinación del plano de falla coincide con la dirección del labio hundido. El resultado es un estiramiento o alargamiento de los materiales, al desplazarse el labio hundido por efecto de la fuerza de la gravedad.
En las fallas de desgarre, además del movimiento ascendente también se desplazan los bloques horizontalmente. Si pasa tiempo suficiente, la erosión puede allanar las paredes destruyendo cualquier traza de ruptura, pero si el movimiento es reciente o muy grande, puede dejar una cicatriz visible o un escarpe de falla con forma de precipicio. Un ejemplo especial de este tipo de fallas son aquellas transformadoras que desplazan a las dorsales oceánicas.
En una falla inversa, producida por las fuerzas que comprimen la corteza terrestre, el labio hundido en la falla normal, asciende sobre el plano de falla y, de esta forma, las rocas de los estratos más antiguos aparecen colocadas sobre los estratos más modernos, dando lugar así a los cabalgamientos.
Las fallas de rotación o de tijera se forman por efecto del basculado de los bloques sobre el plano de falla, es decir, un bloque presenta movimiento de rotación con respecto al otro. Mientras que una parte del plano de falla aparenta una falla normal, en la otra parece una falla inversa.
Un macizo tectónico o pilar tectónico, también llamado “Horst”, es una región elevada limitada por dos fallas normales, paralelas. Puede ocurrir que a los lados del horst haya series de fallas normales; en este caso, las vertientes de las montañas estarán formadas por una sucesión de niveles escalonados. En general, los macizos tectónicos son cadenas montañosas alargadas, que no aparecen aisladas, sino que están asociadas a fosas tectónicas. Por ejemlo, el centro de la península Ibérica está ocupada por los macizos tectónicos que forman las sierras de Gredos y Guadarrama.
Por último, una fosa tectónica o Graben es una asociación de fallas que da lugar a una región deprimida entre dos bloques levantados. Las fosas tectónicas se producen en áreas en las que se agrupan al menos dos fallas normales. Las fosas forman valles que pueden medir decenas de kilómetros de ancho y varios miles de kilómetros de longitud. Los valles se rellenan con sedimentos que pueden alcanzar cientos de metros de espesor. Así sucede, por ejemplo, en el valle del río Tajo, en la península Ibérica.

Terremotos marinos (Tsunamis)

Un maremoto es una invasión súbita de la franja costera por las aguas oceánicas debido a un tsunami, una gran ola marítima originada por un temblor de tierra submarino. Cuando esto ocurre, suele causar graves daños en el área afectada.
Los maremotos son más comunes en los litorales de los océanos Pacífico e Índico, en las zonas sísmicamente activas.
Los términos maremoto y tsunami se consideran sinónimos.

Tsunamis

Un TSUNAMI (del japonés  TSU: puerto o bahía, NAMI: ola) es una ola o serie de olas que se producen en una masa de agua al ser empujada violentamente por una fuerza que la desplaza verticalmente. Este término fue adoptado en un congreso de 1963.
Los terremotos submarinos provocan movimientos del agua del mar (maremotos o tsunamis). Los tsunamis son olas enormes con longitudes de onda de hasta 100 kilómetros que viajan a velocidades de 700 a 1000 km/h. En alta mar la altura de la ola es pequeña, sin superar el metro; pero cuando llegan a la costa, al rodar sobre el fondo marino alcanzan alturas mucho mayores, de hasta 30 y más metros.
El tsunami está formado por varias olas que llegan separadas entre sí unos 15 o 20 minutos. La primera que llega no suele ser la más alta, sino que es muy parecida a las normales. Después se produce un impresionante descenso del nivel del mar seguido por la primera ola gigantesca y a continuación por varias más.
La falsa seguridad que suele dar el descenso del nivel del mar ha ocasionado muchas víctimas entre las personas que, imprudentemente, se acercan por curiosidad u otros motivos, a la línea de costa.
España puede sufrir tsunamis catastróficos, como quedó comprobado en el terremoto de Lisboa en 1755. Como consecuencia de este sismo varias grandes olas arrasaron el golfo de Cádiz causando más de 2.000 muertos y muchos heridos.
En 1946 se creó la red de alerta de tsunamis después del maremoto que arrasó la ciudad de Hilo (Hawaii) y varios puertos más del Pacífico. Hawaii es afectado por un tsunami catastrófico cada 25 años, aproximadamente, y EEUU, junto con otros países, han puesto estaciones de vigilancia y detectores que avisan de la aparición de olas producidas por sismos.
Terremotos, volcanes, meteoritos, derrumbes costeros o subterráneos e incluso explosiones de gran magnitud pueden generar un TSUNAMI.
Antiguamente se les llamaba marejadas, maremotos u ondas sísmicas marina, pero estos términos han ido quedando obsoletos, ya que no describen adecuadamente el fenómeno. Los dos primeros implican movimientos de marea, que es un fenómeno diferente y que tiene que ver con un desbalance oceánico provocado por la atracción gravitacional ejercida por los planetas, el sol y especialmente la luna. Las ondas sísmicas, por otra parte, implican un terremoto y ya vimos que hay varias otras causas de un TSUNAMI.
Un tsunami generalmente no es sentido por las naves en alta mar (las olas en alta mar son pequeñas) ni puede visualizarse desde la altura de un avión volando sobre el mar.
Como puede suponerse, los tsunamis pueden ser ocasionados por terremotos locales o por terremotos ocurridos a distancia. De ambos, los primeros son los que producen daños más devastadores debido a que no se alcanza a contar con tiempo suficiente para evacuar la zona (generalmente se producen entre 10 y 20 minutos después del terremoto) y a que el terremoto por sí mismo genera terror y caos que hacen muy difícil organizar una evacuación ordenada.

Causas de los Tsunamis

Como se mencionaba en el punto anterior, los Terremotos son la gran causa de tsunamis. Para que un terremoto origine un tsunami el fondo marino debe ser movido abruptamente en sentido vertical, de modo que el océano es impulsado fuera de su equilibrio normal. Cuando esta inmensa masa de agua trata de recuperar su equilibrio, se generan las olas. El tamaño del tsunami estará determinado  por la magnitud de la deformación vertical del fondo marino. No todos los terremotos generan tsunamis, sino sólo aquellos de magnitud considerable, que ocurren bajo el lecho marino y que son capaces de deformarlo.
Si bien cualquier océano puede experimentar un tsunami, es más frecuente que ocurran en el Océano Pacífico, cuyas márgenes son más comúnmente asiento de terremotos de magnitudes considerables (especialmente las costas de Chile y Perú y Japón). Además el tipo de falla que ocurre entre las placas de Nazca y Sudamericana, llamada de subducción, esto es que una placa se va deslizando bajo la otra, hacen más propicia la deformidad del fondo marino y por ende los tsunamis.
A pesar de lo dicho anteriormente, se han reportado tsunamis devastadores en los Océanos Atlánticos e Indico, así como el Mar Mediterráneo. Un gran tsunami acompañó los terremotos de Lisboa en 1755, el del Paso de Mona de Puerto Rico en 1918, y el de Grand Banks de Canadá en 1929.
Las avalanchas, erupciones volcánicas y explosiones submarinas pueden ocasionar tsunamis que suelen disiparse rápidamente, sin alcanzar a provocar daños en sus márgenes continentales.
Respecto de los meteoritos, no hay antecedentes confiables acerca de su ocurrencia, pero la onda expansiva que provocarían al entrar al océano o el impacto en el fondo marino en caso de caer en zona de baja profundidad, son factores bastante sustentables como para pensar en ellos como eventual causa de tsunami, especialmente si se trata de un meteorito de gran tamaño.

Características físicas de un tsunami

Debido a la gran longitud de onda estas olas siempre “sienten” el fondo (son refractadas), ya que la profundidad siempre es inferior a la mitad de la longitud de onda (valor crítico que separa las olas de agua profunda de las olas de aguas someras). En consecuencia, en todo punto del océano, la velocidad de propagación del tsunami depende de la profundidad oceánica y puede ser calculado en función de ella.

Formación de un tsunami

En donde V es la velocidad de propagación, g la aceleración de gravedad (9.81 m /seg2) y d la profundidad del fondo marino. Para el Océano Pacífico la profundidad media es de 4.000 m, lo que da una velocidad de propagación promedio de 198 m/s ó 713 km/h. De este modo, si la profundidad de las aguas disminuye, la velocidad del tsunami decrece.
Cuando las profundidades son muy grandes, la onda de tsunami puede alcanzar gran velocidad, por ejemplo el tsunami del 4 de Noviembre de 1952 originado por un terremoto ocurrido en Petropavlosk (Kamchatka), demoró 20 horas y 40 minutos en llegar a Valparaíso en el otro extremo del Pacífico, a una distancia de 8348 millas, avanzando a una velocidad media de 404 nudos. La altura de la ola al llegar a la costa es variable, en el caso señalado en Talcahuano se registraron olas de 3.6 metros; en Sitka (Alaska) de 0.30 metros y en California de 1 metro.
Al aproximarse a las aguas bajas, las olas sufren fenómenos de refracción y disminuyen su velocidad y longitud de onda, aumentando su altura. En mares profundos éstas ondas pueden pasar inadvertidas ya que sólo tiene amplitudes que bordean el metro; sin embargo al llegar a la costa pueden excepcionalmente alcanzar hasta 20 metros de altura.
Es posible trazar cartas de propagación de tsunamis, como se hace con las cartas de olas; la diferencia es que los tsunamis son refractados en todas partes por las variaciones de profundidad; mientras que con las olas ocurre sólo cerca de la costa.
Sus características difieren notablemente de las olas generadas por el viento. Toda onda tiene un efecto orbital que alcanza una profundidad igual a la mitad de su longitud de onda; así una ola generada por el viento sólo en grandes tormentas puede alcanzar unos 300 metros de longitud de onda, lo cual indica que ejercerá efecto hasta 150 metros de profundidad.
Los tsunamis tienen normalmente longitudes de onda que superan los 50 kilómetros y pueden alcanzar hasta 1000 kilómetros, en tal caso el efecto orbital es constante y vigoroso en cualquier parte del fondo marino, ya que no existen profundidades semejantes en los océanos.

Parámetros físicos y geométricos de la onda de tsunami

La longitud de onda (L) de un tsunami corresponde al producto entre la velocidad de propagación (V) y el período (T), relación dada por:
L = V x T
de este modo, para una velocidad de propagación V = 713 km/h, y un período T = 15 minutos, la longitud de onda es L = 178 km. Debido a su gran longitud onda, el desplazamiento de un tsunami a grandes profundidades se manifiesta en la superficie oceánica con amplitudes tan solo de unos pocos centímetros
Las olas generadas por los vientos tienen períodos por lo general de menos de 15 segundos, a diferencia de las ondas de tsunami que oscilan entre 20 y 60 minutos. Esta característica permite diferenciarlas claramente en un registro mareográfico y por lo tanto advertir la presencia de un tsunami.
La altura de la ola H corresponde a la diferencia de nivel entre cresta y valle. Por otra parte, la cota máxima de inundación R, corresponde al lugar de la costa donde los efectos del tsunami son máximos.

Poder Destructivo de un Tsunami

La fuerza destructiva del tsunami en áreas costeras, depende de la combinación de los siguientes factores:
•Magnitud del fenómeno que lo induce. En el caso de ser un sismo submarino se debe considerar la magnitud y profundidad de su foco. •Influencia de la topografía submarina en la propagación del tsunami.
•Distancia a la costa desde el punto donde ocurrió el fenómeno (epicentro).
•Configuración de la línea de costa.
•Influencia de la orientación del eje de una bahía respecto al epicentro (características direccionales).
•Presencia o ausencia de corales o rompeolas, y el estado de la marea al tiempo de la llegada del tsunami.
•Influencia de la topografía en superficie, incluye pendientes y grado de rugosidad derivado de construcciones, arboles y otros obstáculos en tierra.

Efectos en la costa.

La llegada de un tsunami a las costas se manifiesta por un cambio anómalo en el nivel del mar, generalmente se presenta un aumento o recogimiento previo de las aguas; esta última situación suele dejar descubiertas grandes extensiones del fondo marino. Posteriormente, se produce una sucesión rápida y acentuada de ascensos y descensos del nivel de las aguas, cuya altura puede variar entre uno y cuatro metros; sin embargo, se han registrado casos puntuales en que las olas alcanzaron alturas superiores a los
Secuencia que muestra el estacionamiento del acuarium de Japón, antes, durante y después del tsunami de 1983.

Tsunami de Japón 2011

La ola de un tsunami acumula gran cantidad de energía; cuando llega a la línea costera, esta ola avanza sobre la tierra alcanzando alturas importantes sobre el nivel medio del mar. La ola y el flujo que le sigue, cuando encuentran un obstáculo descargan su energía impactando con gran fuerza. La dinámica de un tsunami en tierra es bastante compleja y normalmente no predecible; esto se debe a que influyen factores muy diversos como son: el período, la altura de la ola, la topografía submarina y terrestre determinando daños de diversa intensidad.
Los efectos de un tsunami son diferentes dependiendo de la duración del período. Con corto período, la ola llega a tierra con una fuerte corriente, y con período largo, se produce una inundación lenta con poca corriente. Por otra parte, mientras mayor sea la altura de la ola, mayor es la energía acumulada; por lo tanto, y dependiendo de la pendiente y morfología del terreno, mayor será la extensión de las áreas inundadas. Al respecto, estudios japoneses han determinado que mientras menor es la pendiente de la ola (razón entre la altura y la longitud de onda) mayor será la altura máxima de inundación.
Por otra parte, las variaciones en las formas y las pendientes de la batimetría submarina cercana a la línea de costa influye directamente en el potencial de energía del tsunami, ocurriendo amplificación o atenuación de las ondas.
Así, una costa en peldaños que tenga una plataforma continental escalonada con bruscos cambios de pendiente, hará que la onda de tsunami pierda gradualmente su energía cinética y por tanto potencial, lo anterior debido a los choques sucesivos de la masa de agua con el fondo marino. Las olas van disipando su energía en las paredes con los cambios bruscos de profundidad.
En tanto, una costa con topografía de pendientes suaves en forma de rampas en que la plataforma continental penetra suavemente en el mar, permitirá que la energía del tsunami sea transmitida en su totalidad, y por lo tanto, se incrementa el poder destructivo del mismo. Estas son costas de alto riesgo con olas de gran altura que producen inundación. En este caso la pérdida de energía es sólo por roce.
En las bahías puede haber reflexión en los bordes de las costas; en este caso si el período es igual (o múltiplo entero) al tiempo que demora en recorrer la bahía, al llegar la segunda ola puede verse reforzada con un remanente de la primera y aumentar la energía al interior de la bahía, este es el fenómeno de resonancia. Esta condición puede producir la amplificación de las alturas del tsunami al interior de una bahía como ocurre en la bahía de Concepción (SHOA, 1995).
La figura complementaria muestra la forma rectangular de la bahía con 14, 6 kilómetros de largo por 11,7 kilómetros de ancho, con una profundidad media de 25 metros. En 25 metros de profundidad la velocidad del tsunami es de 15,6 m/segundos o bien 56,3 km/hora, lo que significa que este recorre el largo de la bahía en 15,5 minutos y el ancho en 12,5 segundos.
La topografía de las tierras emergidas influye directamente en la penetración del tsunami en superficie. Cuando la pendiente es relativamente fuerte la extensión de la zona inundada no es significativa, en cambio, cuando el terreno es plano o con escasa pendiente, la penetración puede abarcar kilómetros tierras adentro.

lunes, 15 de junio de 2015

Modificar la vida: Biología sintética (2)

Otro ladrillo en la pared

Algunos grupos dentro de la biología sintética han puesto sus esperanzas un paso más allá: hacer accesible a cualquier persona tanto el “inventario” de piezas del rompecabezas de la vida como los procedimientos para ensamblarlas. La meta es que los avances de esta ciencia sirvan al interés de toda la sociedad.

Una de las iniciativas más audaces en esa línea es de la Fundación Biobricks (BBF), asociación no lucrativa fundada en 2006 en el Instituto Tecnológico de Massachusetts (MIT), Estados Unidos, a iniciativa del biólogo e ingeniero en computación Tom Knight. Biobricks busca establecer una plataforma común con estándares técnicos para la fabricación de piezas biológicas sintéticas intercambiables, tal como se hace al construir autos o circuitos electrónicos.

“Vislumbramos un mundo en el que científicos e ingenieros trabajen juntos utilizando partes biológicas estandarizadas disponibles gratuitamente que sean seguras, éticas, efectivas y públicamente accesibles para aportar soluciones a los problemas que enfrenta la humanidad”, señala un comunicado de BBF en su página web.

El protocolo de ensamblaje 10, desarrollado por Knight y basado en el uso de enzimas de restricción, que funcionan como “tijeras moleculares” para cortar fragmentos de ADN, fue el primero en usarse. Este método permite construir —siguiendo con la analogía del juego Lego— módulos que son funcionales, pero tiene ciertas limitaciones. Por ejemplo, al ligar dos bioladrillos se producen entre ellos pares de bases “cicatriz” que no son reconocidas por las enzimas de restricción (no “encajan” completamente en el rompecabezas) lo cual impide la formación de proteínas quiméricas, es decir, resultantes de la fusión de dos o más genes que originalmente codificaban para dos proteínas distintas.

Por ello, en la última década se introdujeron otros estándares más eficaces que permiten superar los obstáculos que limitan el armado de piezas biológicas, como el Silver y el Friburgo.

El primero —introducido por la investigadora Pamela Silver, de la Universidad de Harvard y conocido también como Biofusión— permite reducir la longitud de la “cicatriz” de ocho a sólo seis “letras” del ADN, y con ello la fusión de proteínas.

El otro método, desarrollado por un grupo en la Universidad de Friburgo, Alemania, introdujo el uso de enzimas de restricción adicionales para cortar los fragmentos genéticos. Aunque conserva el tamaño de las “cicatrices” en seis pares de bases, éstas codifican otras proteínas que resultan más estables.

Otros métodos de amplificación y síntesis de ADN como el ensamblaje Gibson o el SLIC (Sequence and Ligation Independent Cloning) permiten armar múltiples partes biológicas sin necesidad de cortar o pegar segmentos, ya que no requieren enzimas de restricción, según comenta Daniel Aguilar. Tanto el método Gibson —inventado en 2009 por Daniel Gibson, del J. Craig Venter Institute— como el SLIC —desarrollado en 2007 por los investigadores Mamie Li y Stephen Elledge— hacen factible unir muchos fragmentos de ADN en una sola reacción, sin necesidad de que las piezas sean compatibles. Este último posibilita un ensamblaje más eficiente y reproducible de ADN recombinante con cinco o incluso 10 fragmentos de manera simultánea, según describen sus autores en un artículo, publicado en la revista Nature Methods en febrero de 2007.

“Con estas dos técnicas sólo se necesitan nucléotidos (las “letras” del código genético, A, C, G, T) que tengan secuencias en común con los dos pedazos que se van a pegar y luego, mediante una reacción en cadena de la polimerasa (RPC) se amplifica todo el segmento”, detalla Aguilar. La RPC permite obtener copias múltiples de fragmentos de ADN; la desarrolló el bioquímico estadounidense Kary Mullis y por ello obtuvo el premio Nobel de Química en 1993.


Reinventar la naturaleza
Tres siglos antes de nuestra era Aristóteles sostuvo que el arte imita a la vida. La ciencia del siglo XXI, a través de la biología sintética, también puede asumir esta máxima, ya que busca emular ciertas características y funciones de organismos que han sido moldeadas a lo largo de millones de años de evolución.

Pero hoy los científicos no se conforman con describir pasivamente las secuencias genéticas naturales de los organismos. Algunos de ellos, como el genetista George Church, profesor de la Escuela de Medicina en la Universidad de Harvard, ya trabajan en la “edición” y “corrección” de la vida. Church, pionero de la biología sintética y la genómica personalizada, considera que mediante la alteración dirigida del código genético y la “creación” de nucleótidos sintéticos pronto será viable modificar la vida desde sus bases mismas, generar nuevas formas de ella e incluso diseñar organismos simples y después otros complejos —incluidos los humanos— que sean resistentes a infecciones bacterianas o virales.

Suena a ciencia-ficción, pero Church está convencido de que al paso en que se reducen los costos de la clonación y secuenciación de genes y avanzan estas tecnologías, pronto sería incluso factible “revivir” especies desaparecidas, como los neandertales, como señaló en entrevista a la revista alemana Der Spiegel (18 de enero de 2013).

El genetista estadunidense —quien en los años 80 aportó el primer método directo de secuenciación genómica, que más tarde impulsaría el Proyecto del Genoma Humano— ha planteado asimismo la posibilidad de construir plantas con nucleótidos sintéticos. Estos vegetales serían más que especies exóticas: su información genética sería, por decirlo así, “incompatible” con el código de la vida que la naturaleza ha forjado en millones de años de evolución. Sus genes no podrían transferirse a otros vegetales debido a que ningún organismo natural tendría el “manual de instrucciones” para leerlos y activarlos.

Church dio a conocer en un artículo publicado en la revista Science el 15 de julio de 2011 un método para cambiar radicalmente el genoma de una bacteria, en vez de sólo realizar copias, como ha hecho el equipo de Craig Venter.


Con este procedimiento, conocido coloquialmente como intervención masiva paralela, los investigadores lograron no solamente “leer” los códigos genéticos, sino editar cientos de letras en una forma rápida y mucho menos costosa en comparación con el método de Venter, consistente en crear un genoma artificial completo, cuyo costo se estima en millones de dólares.

El equipo de Church, para seguir con la analogía de la edición, sustituyó una de las “palabras” del código genético de la bacteria Escherichia coli con otra equivalente, es decir, con una especie de sinónimo. La estructura remplazada, que está formada por una secuencia de tres nucleótidos, se denomina técnicamente codón.

Los científicos sustituyeron un codón denominado stop, que funciona como signo de puntuación pues provee las instrucciones a la maquinaria celular de la bacteria para que deje de ligar aminoácidos. Con dos métodos distintos cambiaron la secuencia TAG, que aparece 314 veces en el genoma de E. coli, por otra que contiene las “letras” TAA. Este pequeño cambio resultó inocuo, pero no insignificante: al cambiar así el código genético de la bacteria las funciones de ésta quedan intactas, pero los virus invasores —que dependen por completo de su huésped para replicarse, ya que no pueden elaborar sus propias proteínas— no podrán leer dicho código alterado ni apropiarse de la maquinaria celular.

Regulación indispensable
Al tomar el control sobre la evolución y diseñar la secuencia apropiada de letras del código genético, los científicos pretenden construir organismos a la medida, para satisfacer una gran variedad de necesidades en campos como la farmacología (vacunas, hormonas, biomarcadores), la agricultura (biocombustibles, plantas resistentes a plagas) y la ciencia de materiales (nanoestructuras con características mejoradas), entre otras.

“Estamos en un punto de la ciencia y la tecnología donde los humanos podemos duplicar y mejorar lo que la evolución ha hecho”, escribe Church en su libro Regénesis, cómo la biología sintética reinventará la naturaleza y a nosotros mismos. “Podemos convertir lo inorgánico en orgánico, leer e interpretar genomas y también modificarlos”. Pero no todo el panorama luce promisorio: tales manipulaciones han despertado temores por sus posibles riesgos y consecuencias en la salud y el medio ambiente si no son supervisadas y reguladas adecuadamente. ¿Qué sucedería, por ejemplo, si alguno de esos organismos sale del control del laboratorio o cae en manos de terroristas? ¿Cómo serían sus interacciones con el ambiente? Otro tema que preocupa es el de sus posibles efectos secundarios u otros riesgos que aún no podemos vislumbrar con claridad, dado el incipiente desarrollo de la biología sintética. Una de las grandes figuras de esta disciplina, Drew Endy, del Instituto Tecnológico de Massachusetts, ha reconocido que la misma no alcanzará todo su potencial hasta que los científicos puedan predecir con precisión cómo funcionarán los circuitos genéticos dentro de una célula.

“Desafortunadamente, nuestra habilidad para diseñar sistemas biológicos en forma rápida y confiable y que se comporten como lo esperamos sigue siendo limitada”, escribió Endy en su artículo “Fundamentos de la ingeniería biológica”, publicado en 2005 en la revista Nature.

Tales inquietudes, así como la falta de regulación internacional en la materia, han estimulado el debate y conducido a diversas organizaciones sociales y grupos ambientalistas como Amigos de la Tierra, ETC y Econexus a plantear la necesidad de establecer lineamientos y códigos para normar la labor de los biólogos sintéticos. “La biología sintética incluye muchas técnicas nuevas, experimentales, de las que se comprende muy poco, y esto incrementa en gran medida los riesgos a la salud humana, la alimentación y las formas de sustento”, señaló al respecto Helena Paul, directora de Econexus. Pero hay avances. El año pasado, durante la Doceava Conferencia de las Partes de la Organización de Naciones Unidas (COP12), celebrada en Corea, 194 países suscribieron el Convenio sobre Diversidad Biológica que contempla, entre otras cosas, establecer una regulación internacional en la materia basada en la protección al ambiente, la cooperación y la valoración científica de posibles riesgos.





Organismos a la carta

La biología sintética se define como el diseño y la construcción de sistemas biológicos y bioquímicos que realicen funciones nuevas o mejoradas, las cuales puedan aprovecharse en la producción de fármacos, vacunas y biocombustibles, entre muchas otras aplicaciones. Está sustentada en una amplia gama de disciplinas —incluida la informática— y metodologías para diseñar moléculas, construir circuitos genéticos y ensamblar organismos simples.
La Red Mundial de Academias de Ciencias (que incluye a la Mexicana de Ciencias, AMC) emitió en 2014 una declaración titulada “Concretando el potencial global en biología sintética: oportunidades científicas y buen gobierno”. En ese documento (que puede consultarse en www.interacademies. net) la Red recomienda, entre otras medidas, apoyar la investigación básica en biología sintética, además de que se revisen continuamente los aspectos éticos y las cuestiones sociales que emergen de la disciplina.

viernes, 5 de junio de 2015

La piña: fruta dulce y nutritiva

La piña es originaria de Brasil. Los nativos la llamaban “ananá”, que significa “fruta excelente”. Esta fruta tropical, dulce y jugosa, aún conserva esta denominación en algunas regiones de habla hispana. Pero además de ser sabrosa, ofrece valiosas propiedades para la salud.


INFORMACIÓN NUTRICIONAL
Una taza de piña fresca provee el 131% de la ingesta diaria recomendada de vitamina C. Esta fruta también es muy rica en fibra, magnesio, manganeso y potasio. Además, es la única fuente conocida de una enzima digestiva llamada bromelina.

A pesar de su sabor dulce, su valor calórico es reducido: cada taza contiene aproximadamente 82 calorías, nada de grasa ni colesterol, 2mg de sodio y 1 gr de proteína.

BENEFICIOS PARA LA SALUD
Ayudan al buen funcionamiento del aparato digestivo

Por su contenido de fibra y agua, las piñas pueden ayudar a prevenir la constipación y a mantener un funcionamiento sano y regular del tracto digestivo. Además, contienen bromelina, que es similar a la pepsina, una enzima que compone el jugo gástrico. Es por eso que también estimulan una buena digestión, especialmente cuando se consumen alimentos ricos en proteínas.



Fortalecen el sistema inmunológico

Por su elevado contenido de vitamina C, las piñas fortalecen el sistema inmunológico. Así, ayudan a que el cuerpo se mantenga fuerte para combatir las enfermedades.
Reducen la inflamación y aceleran la curación de las heridas

Según lo indican en Medical News Today, algunos estudios han demostrado que la bromelina presente en las piñas puede reducir la inflamación, los moretones y el dolor asociado con lastimaduras e intervenciones quirúrgicas. También puede acelerar el proceso de cicatrización. En el mismo sitio señalan que esta enzima se utiliza hoy en día para tratar tendinitis, esguinces, desgarros y otras lesiones musculares.
Protegen al corazón

La fibra y la vitamina C presentes en la piña cuidan la salud del corazón. Sin embargo, es el alto nivel de potasio lo que reduce el riesgo de infartos.


Son depurativas
Por su alto contenido de agua y potasio, las piñas son un excelente diurético natural. Esta función es esencial para depurar el organismo.
Harán que tu piel se vea más bella

Cuando se consume en su forma natural, la vitamina C ayuda a combatir el daño que la contaminación y el sol ocasionan en la piel. También disminuye visiblemente las arrugas. Así, mejora la textura general de la piel. Además, la vitamina C es muy importante para la formación de colágeno, fundamental para que la piel se mantenga tersa y firme.
Ayudan a absorber el hierro

La vitamina C estimula la absorción del hierro. Combina la piña con alimentos ricos en este mineral para prevenir enfermedades derivadas de su deficiencia, tales como la anemia.

ALGUNAS IDEAS PARA INCORPORARLA A TU DIETA

Puedes consumir las piñas frescas o incluirlas en recetas tanto dulces como saladas. Si te gusta la comida agridulce, anímate a incorporar algunos trozos en tus ensaladas, brochetas, sándwiches o pizzas. También puedes usarlas para preparar jugos o batidos.


Al escogerlas, opta por aquellas que se vean grandes, firmes, con las hojas verdes. Nunca deben estar magulladas. Ten en cuenta que el color de la cáscara no es un indicador del grado de madurez de las piñas. Que se vean verdes por fuera no indica necesariamente que no estén listas para ser consumidas. A diferencia de otras frutas, no siguen madurando una vez que se las recoge de la planta.

Esta fruta es muy sensible a los cambios bruscos de temperatura. Antes de cortarla se la debe almacenar en un sitio fresco y seco. Sólo cuando la hayas cortado y pelado deberás conservarla en el refrigerador. Ten en cuenta que esta fruta pierde agua rápido por lo que dejará de ser jugosa al poco tiempo.

Para consumirla, corta la base y la parte superior, de donde salen las hojas. Colócala verticalmente sobre una superficie firme y córtala en rodajas. Luego, quítale la cáscara.

Las piñas también se comercializan enlatadas. Si sólo puedes conseguirla de esta manera, asegúrate de escoger aquellas variedades que vengan enlatadas en el mismo jugo de la fruta, no en almíbar. Así, serán más saludables.

Modificar la vida: Biología sintética (1)

Como si manipularan piezas del juego Lego, los científicos diseñan y ensamblan circuitos biológicos que no existen en la naturaleza. Con ellos buscan producir a bajo costo vacunas, fármacos, biocombustibles y nuevos materiales.
Un biotecnólogo se sienta frente a la pantalla de su computadora. Da un clic y ante él se despliegan decenas de páginas con bases de datos sobre microorganismos. Entre ellos selecciona una bacteria. Ahora accede a otra página repleta de información genética. Asistido por un programa de cómputo y como si editase un texto se dedica a copiar y pegar grupos de letras que representan fragmentos de ADN para dar forma a un novedoso diseño. Estos fragmentos en particular son circuitos genéticos, esto es, conjuntos de genes que dan lugar al “encendido” o “apagado” de otros genes.

Como un niño que manipula las piezas de un rompecabezas tipo Lego, el científico continúa con la selección y ensamblaje de combinaciones de circuitos genéticos que le permitirán armar un microorganismo “a la carta”, que no existe en la naturaleza y que podrá desarrollar funciones preprogramadas.

Concluido el ensamblaje de genes el investigador lo usa en el laboratorio para producir el nuevo microorganismo con un propósito específico que puede ser generar biocombustibles, detectar enfermedades genéticas o eliminar tumores malignos. Con los avances de la biología sintética esta escena ya no parece de ciencia-ficción.


Cabras y arañas
En 2012 investigadores de la Universidad Estatal de Utah, Estados Unidos, encabezados por Randy Lewis, anunciaron la culminación exitosa de un audaz experimento para producir auténticas quimeras vivientes: cabras a las que se les introdujo un gen de araña para que produjeran en su leche una proteína indispensable para fabricar tela de araña.

Para producir telaraña a escala masiva se necesitaría criar y “ordeñar” millones de estos artrópodos. Pero el profesor de biología molecular Randy Lewis decidió probar una ruta más sencilla: cuando sus cabrarañas comenzaran a lactar, simplemente recolectaría y purificaría su leche para obtener la proteína deseada.

No podían faltar las críticas a éste y otros experimentos similares con animales transgénicos: muchos acusaron a Lewis de “jugar a ser dios” o de alterar el orden natural. Lo cierto es que, con todo y su espectacularidad, los avances de la ingeniería genética podrían palidecer pronto ante la gama de posibilidades que está abriendo la biología sintética.

Ahora la intención no es únicamente modificar o reconfigurar a los organismos existentes, sino diseñar —con el apoyo de programas de cómputo y la gran cantidad de información que deriva del auge explosivo de las ciencias genómicas— otros con características deseables, que pueden encontrarse o no en la naturaleza.

“En este campo no sólo se hacen pequeñas modificaciones en la información genética, sino que también se diseñan, manipulan, simulan e introducen circuitos genéticos a los organismos”, señalan Daniel Aguilar e Isabel Ángeles en su artículo “Biología sintética: diseñando sistemas biológicos con piezas genéticas”, publicado en la revista BioTecnología en 2012.

Con este enfoque —plantean los autores del artículo— “se están abordando distintos problemas tecnológicos como nuevas formas de síntesis y producción de biocombustibles, biofármacos y nanoestructuras”.


Organismos artificiales
Cuando en 2010 el famoso científico californiano Craig Venter dio a conocer el ensamblaje y autorreplicación de una bacteria Mycoplasma mycoides —cuyo genoma artificial fue inoculado en la carcasa de otra bacteria desprovista de su propio ADN— el mundo científico se conmocionó. El exitoso experimento de Venter mostró que era posible diseñar un genoma mediante computadora, fabricarlo con los elementos químicos necesarios en el laboratorio e implantarlo en una célula que a su vez produzca otra nueva capaz de replicarse siguiendo las “instrucciones” del genoma sintético. Sin embargo, para entonces la biología sintética ya había dado otros pasos importantes.

“El reto que enfrentó Craig Venter fue de tipo técnico, mas no conceptual, ya que pudo construir cromosomas enteros para la bacteria Mycoplasma mycoides”, explica en entrevista Daniel Aguilar. De acuerdo con este biotecnólogo egresado del Instituto de Investigaciones Biomédicas de la UNAM, el mérito de Venter es que antes de ese trabajo no se habían producido o sintetizado fragmentos completos muy largos de ADN en el laboratorio.

En 2003 Jay Keasling, de la Universidad de California, Estados Unidos, logró introducir un circuito genético para producir en la bacteria Escherichia coli un precursor químico de la artemisinina, fármaco usado contra la malaria. Y en 2010 la compañía estadounidense LS9 modificó genéticamente a este mismo microorganismo para que produjera alcanos y alquenos, que son los constituyentes básicos de la gasolina, el diesel y la turbosina. Este trabajo demostró que es viable transferir entre organismos la capacidad de fabricarciertas proteínas y enzimas, lo cual abre la posibilidad de transformar carbohidratos en combustibles de bajo costo.

En México también hay grupos que han incursionado en esta disciplina. Es el caso del Laboratorio de Biología Sintética y Biosistemas del Centro de Investigación y Estudios Avanzados (Cinvestav) Unidad Irapuato. En este laboratorio, según explica en entrevista su titular, Agustino Martínez Antonio, se siguen líneas de investigación enfocadas a conocer cómo funcionan los circuitos genéticos y a hacer ingeniería con esas piezas.

“Queremos obtener los elementos mínimos para hacer un sistema autorreplicable; es decir, una molécula de ADN con los genes necesarios para que se forme una proteína o un complejo de proteínas y pueda hacer copias, como un robot que se autoensambla, pero a nivel molecular”.

El grupo de trabajo del doctor Martínez, que ya tiene convenios con empresas mexicanas, asimismo busca ensamblar circuitos genéticos que sirvan para producir a menor costo compuesto usados en la industria alimentaria como licopeno, betacaroteno y melanina, además de biocombustibles.

Diagnostico de cáncer con bacterias transgénicas

La enterobacteria Escherichia coli vive en nuestros intestinos y en la mayoría de los intestinos de los mamíferos. Tiene un papel importante en el proceso digestivo. Pero manipulando su genoma, le podemos encargar nuevos objetivos. Como, por ejemplo, que coloree nuestra orina si detecta un tumor en nuestro hígado. La bacteria, así, se convertiría en una herramienta de diagnóstico viva.

Es lo que ya se ha conseguido en ratones, para identificar metástasis en el hígado, según un estudio realizado por un equipo de la Universidad de California (San Diego) y el Massachusetts Institute of Technology (MIT). Las bacterias se administrarían por vía oral.

Los estudios se centraron en el hígado no solo porque es un objetivo natura de la Escherichia coli, sino porque además es difícil lograr imágenes de ese órgano con técnicas convencionales de diagnosis como los escáneres o las resonancias magnéticas.

Estudios previos habían demostrado que las bacterias pueden penetrar y crecer en el microambiente de un tumor, donde hay muchos nutrientes y donde además la inmunidad del cuerpo está comprometida.

Por si esto fuera poco, otro equipo de investigadores de la Universidad de Montpellier y de Stanford ha conseguido que esta misma enterobacteria presencia de un exceso de glucosa ligada a la diabetes, coloreando también la orina para que nos demos cuenta en un simple test.

Calificaciones