lunes, 18 de noviembre de 2024

Cómo la actividad humana está alterando los ciclos de lluvias y sequías en la cuenca del río Amazonas

Enviado por

EMILIANO MENDOZA LIRA

La cuenca del río Amazonas o Cuenca Amazónica es muy, muy grande. En el territorio que abarca cabría cómodamente la India, pero dos veces. Esta dimensión continental implica que los procesos hidrológicos de la cuenca repercuten en el medio ambiente global de diversas maneras. Las altas tasas de precipitación, el gran almacenamiento de agua dulce y el fuerte caudal de los ríos hacen que la cuenca del Amazonas sea un actor clave en el sistema climático mundial. Por eso, cualquier alteración en sus ciclos naturales puede tener repercusiones planetarias.

Un estudio realizado por 20 investigadores latinoamericanos, y publicado por la Reviews of Geophysics en 2021, identificó los cambios en estos ciclos hidrológicos que se produjeron en los últimos 30 años, basándose en los datos de seguimiento por satélite. Con las imágenes procedentes del espacio, se pudieron analizar las gigantescas dimensiones de la cuenca y la relación entre los procesos hidráulicos, señalando que la acción humana, como la deforestación del bosque y la minería, está influyendo en la distribución de las precipitaciones, las sequías, los periodos de inundación e incluso en la modificación de cursos fluviales completos.

El Río Amazonas y sus afluentes, vistos desde la Estación Espacial Internacional, tienen una hidrología intrincada y compleja. Una nueva revisión de los datos de los satélites presenta una imagen más completa del ciclo del agua en la Amazonía, a la vez que ayuda a entender las consecuencias de los impactos ambientales y los retos para la investigación futura en la región.FOTOGRAFÍA DE ALEXANDER GERST

La alteración de los ciclos hídricos naturales de la cuenca del Amazonas
El citado análisis señala que la acción humana y el cambio climático están alterando la distribución de las precipitaciones en la región de la cuenca del Amazonas, identificando zonas en las que las precipitaciones son cada vez más voluminosas mientras que, en otras, la sequía está más presente.

Según el estudio, los modelos hidrológicos y climáticos construidos a partir de imágenes de satélite indican más lluvias e inundaciones en el norte de la Amazonia y sequías más severas en el sur de la región. Por consiguiente, el cambio en el ciclo de las precipitaciones también influye en las crecidas y los caudales de los ríos, lo que afectaría tanto a la fauna como a las poblaciones humanas.

"Los datos apuntan a una reducción de los caudales medios de los ríos del oeste al sur del Amazonas. Mientras que en el norte, hay un escenario de aumento de las lluvias y, en consecuencia, de las inundaciones de los ríos que vienen de Perú y llegan a la Amazonía", expresó Rodrigo Paiva, doctor en Hidrología, Hidroquímica, Suelo y Medio Ambiente por la Universidad de Toulouse, Francia, y uno de los autores del documento.

Fotografía de 2017 obtenida por el satélite Copernicus Sentinel-2A del lugar donde el Río Amazonas se encuentra con el Océano Atlántico. El agua cargada de sedimentos aparece marrón a medida que fluye hacia el océano abierto.FOTOGRAFÍA DE AGENCIA ESPACIAL EUROPEA

Es importante destacar, sin embargo, que el cambio en la pluviosidad amazónica no significa que las lluvias en la región no sigan siendo intensas en toda la extensión de la cuenca. Los ciclos pluviométricos anuales varían significativamente, muy influidos por la latitud, el relieve y las características atmosféricas.

La precipitación media anual en la región es de 2.200 milímetros, pudiendo alcanzar valores superiores a los 6.000 milímetros anuales en los lugares denominados hotspots o "puntos calientes" pluviométricos, localizados en la transición entre los Andes y la Amazonía. A modo de comparación, la precipitación media anual de la ciudad de São Paulo es de 1616 milímetros, mientras que en la Ciudad de México puede oscilar entre los 600 y los 1.200 milímetros y, en Buenos Aires, no suele superar los 1.112 milímetros.

"El cambio más importante que observamos en el ciclo hidrológico es la intensificación de los fenómenos extremos", dijo en una videollamada con National Geographic Jhan Carlo Espinoza, doctor en Climatología e investigador peruano adscrito a la Universidad de Grenoble Alpes y al Instituto de Investigación para el Desarrollo, en Francia, y uno de los autores del estudio.

Lo que la combinación de observaciones desde el espacio y los estudios in situ están mostrando es, en realidad, un aumento de la intensidad de los procesos hidrológicos. "En los últimos años", informó Espinoza, "el período seco en la parte sur de la Amazonía se ha extendido, en media, un mes. Mientras que en el norte, las lluvias son mucho más intensas, provocando crecidas récord en los ríos".

Un ejemplo reciente ocurrió en junio de 2021, cuando el Río Guainía o Negro alcanzó un nivel de inundación severo, por encima de los 30 metros, en el puerto de Manaos, la capital y mayor ciudad del estado brasileño de Amazonas. Este nivel fue el más alto jamás registrado desde que comenzaron las mediciones hace 119 años, según advirtió el Servicio Geológico de Brasil.

El efecto de la deforestación en las precipitaciones de la Amazonía
Tal como cuenta Espinoza, la intensificación de algunas variables hidrológicas ha ido en aumento, sobre todo a partir de la década del 2000, con eventos extremos de inundación y sequía que se producen con poco tiempo de diferencia.

Las causas de estos cambios siguen siendo objeto de debate en la comunidad científica, debido a la complejidad del sistema hidráulico de la cuenca del Amazonas. Esto se debe a que las condiciones climáticas y atmosféricas de otras partes del mundo pueden tener consecuencias en la distribución de las precipitaciones en el Amazonas: "El aumento de las temperaturas oceánicas, por ejemplo, hace que llueva más en el norte de la región. Pero el cambio climático global no es el único factor, ya que éste también está muy relacionado con los cambios en la cobertura del suelo en la Amazonia, convertida de vegetación nativa a uso agrícola o minero", explica Espinoza.

Combinando los datos de satélite sobre las precipitaciones y el uso del suelo en la región del Amazonas, fue posible relacionar el nivel de deforestación con la cantidad de precipitaciones en una región. Y lo que los investigadores analizaron es que cuanto más se deforesta, menos llueve: "Además de llover menos, las precipitaciones se retrasan más, es decir, el período seco se alarga", explica Gabriel Abrahão, investigador de meteorología aplicada de la Universidad Federal de Viçosa, en Minas Gerais, Brasil.

La eliminación de la cubierta vegetal interrumpe el flujo de humedad del suelo a la atmósfera, lo que influye directamente en la temporada de lluvias. Según Abrahão, la diferencia en el inicio de la temporada de lluvias es clara al comparar regiones cercanas, donde una está más preservada que la otra y puede tardar más de una semana en llegar la lluvia a la región más deforestada.

"Lo interesante, o quizás preocupante, es que si la cuenca del Amazonas en su conjunto tiene un año en el que llueve bien, el nivel de deforestación no supone ninguna diferencia. Llueve bien en todas partes", dice Abrahão. "Pero en los años en que la lluvia llega más tarde", añadió, "la diferencia es enorme, puede retrasarse hasta 30 días en los lugares más deforestados. Esto es catastrófico para la agricultura y la ecología de la región".

El aumento de la estación seca también está relacionado con el tamaño de la zona deforestada. Según el análisis de las imágenes de satélite de la Misión de Medición de Lluvias Tropicales de la NASA (TRMM, por sus siglas en inglés), considerando un área con un radio de 28 kilómetros cuadrados, las pequeñas fracciones deforestadas, hasta un límite del 57% de deforestación, provocan un ligero aumento de las precipitaciones. Sin embargo, una vez superado este límite, la precipitación media comienza a descender. En grandes áreas (por encima de 224 kilómetros cuadrados), la deforestación conduce sistemáticamente a una reducción lineal de la precipitación media de 4,1 milímetros al año.

La extinción de un río pone en riesgo a la Pororoca
La observación de la cuenca del Amazonas a través de satélites permite identificar eventos hidromorfológicos que no se entenderían o que, al menos, serían mucho más difíciles de comprender sólo con estudios de campo. Un ejemplo es el cambio de curso de un río que hizo desaparecer un tramo de 100 kilómetros de su caudal.

Utilizando imágenes del Landsat (el programa de satélites de la NASA para observar la Tierra e investigar los recursos naturales), los investigadores han observado recientemente cómo el curso del Río Araguari, en el estado brasileño de Amapá, fue absorbido por el Río Amazonas.



"Un río con un caudal enorme, que desembocaba en el mar, y que simplemente desapareció en un periodo de dos o tres años", lamentó Abrahão. Según los autores del estudio, el Araguari, cuyo caudal era cinco veces superior al del Río Doce (un importante río del sudeste de Brasil) y que tenía un flujo en su desembocadura de 900 metros cúbicos por segundo, comenzó a desaguar en otros lugares hasta desaparecer, dejando a cientos de personas sin agua, medios de subsistencia y transporte.

El acontecimiento no sólo provocó la desaparición del río, sino que también acabó con la Pororoca, uno de los fenómenos más famosos del Amazonas. Derivado del tupí, pororoca significa "rugido" y corresponde a un acontecimiento natural que consiste en la formación de grandes y violentas olas al encontrarse las aguas de un río con el océano.

La razón de la desaparición: riveras destruidas por la cría de búfalos, la implantación de tres represas hidroeléctricas y la construcción de canales de riego para las granjas cercanas. "El desvío se produjo debido a acciones humanas, como la degradación de la vegetación y el pisoteo de los animales, que crearon las condiciones para que se formara el canal, llevando casi toda el agua hacia el Amazonas", explicó Abrahão.

"El tramo del Araguari era donde se daban las mayores pororocas del Amazonas y ahora simplemente ya no existe, porque el río se ha secado", comentó Alice Fassoni-Andrade, doctora en Recursos Hídricos de la Universidad Federal de Río Grande do Sul (UFRGS) y coautora de la investigación.

Las ventajas de estudiar la Amazonía desde el espacio
En las últimas décadas, el Amazonas ha sufrido importantes cambios medioambientales. Las extensas zonas de bosque tropical taladas para su conversión en pastos, tierras de cultivo o para la actividad minera han afectado no sólo al régimen de lluvias de la región, sino también a procesos como la evapotranspiración (transferencia de agua a la atmósfera mediante la evaporación del agua del suelo y la transpiración de las plantas), el transporte de sedimentos, el caudal y el color de los ríos.

Muchos de esas características y alteraciones sólo fueron descubiertas e interpretadas tras el inicio de la era de la exploración espacial. "El Amazonas sirvió de gran laboratorio para el desarrollo de técnicas de monitorización remota por satélite", afirma Rodrigo Paiva, coautor del estudio. Explica que la región era atractiva y funcionaba como un "conejillo de Indias" por tener fuertes signos hídricos, como lluvias muy intensas y voluminosas, ríos enormes y gran amplitud en el nivel del agua, incluso con diferentes colores entre ellos. Por eso, añadió, se trata de un lugar "muy adecuado para probar y desarrollar estas técnicas. Permitió un estudio del entorno y una comprensión de los procesos hidráulicos que no sería posible sólo con mediciones de campo".

Según los investigadores, hay más factores para los cambios hidráulicos en la cuenca del Amazonas que la acción humana en la selva, aunque éste sea un factor importante. Sin embargo, la identificación de la relación entre la explotación del medio ambiente, el cambio climático y los cambios en la hidrología es un subproducto de la investigación que ha recurrido a las misiones espaciales para comprender mejor la inmensidad del Amazonas.



El seguimiento de los eventos hidráulicos en la Amazonía exige datos que son difíciles de adquirir in situ, tanto por la necesidad de recursos humanos y financieros, como debido al difícil acceso. Dado que el principal medio de transporte en la cuenca es a través de los ríos, lo que puede suponer días de viaje para una medición, la teledetección, como se denomina al uso de sensores de satélite para captar información desde el espacio, permite la recogida de datos sin necesidad de estar en el lugar.

Alice Fassoni-Andrade, coautora de la investigación, añade que hubo procesos hidrológicos que sólo se pudieron observar con el uso de satélites: "Hasta hace 20 años no sabíamos cuánto llovía realmente en el Amazonas". Además, en la región de los Andes, por ejemplo, "se necesitaría una red colosal de monitores terrestres para poder obtener toda la distribución espacial y temporal de las precipitaciones", añadió.

Los satélites como herramientas para la conservación
Además de la comprensión del clima, los autores del estudio también señalan que el seguimiento por satélite puede ser algo más que una herramienta de estudio. El alcance de la visión desde el espacio también es relevante en cuestiones de gobernanza, teniendo el potencial de ser un aliado útil para las políticas públicas, especialmente en los esfuerzos de conservación.

"Poder relacionar, por ejemplo, el impacto que la acción humana tiene en la Amazonía es fundamental, porque muchas de estas cosas son incluso criminales", asegura Abrahão, refiriéndose principalmente a la acción de la minería (y especialmente la de oro), que es común en algunos lugares de la región, como en los ríos que componen la cuenca del Tapajós, en Mato Grosso. A menudo se trata de actividades ilegales y no registradas.

A veces se trata de operaciones pequeñas y, por lo general, utilizan técnicas de bajo coste, como chorros de agua y dragas, que pueden causar altos niveles de degradación del suelo y contaminación del agua.

Para Tainá Conchy, magíster en Clima y Medio Ambiente de la Universidad del Estado de Amazonas y miembro del Laboratorio de Recursos Hídricos y Altimetría Espacial de la Amazonia (RHASA), que no participó en el estudio, la importancia de la teledetección para estudiar la región radica en la propia urgencia que implica entender el equilibrio ecológico amazónico para mejorar su preservación: "Todos y cada uno de los cambios, ya sean climáticos, naturales o antropogénicos, pueden desencadenar alteraciones que afectarán no sólo al ciclo hidráulico amazónico, sino al clima en general".

Entre el 30% y el 40% del agua que llueve en la Amazonía vuelve a la atmósfera a través de la transpiración de las plantas y la evaporación del suelo húmedo y la vegetación. Este proceso es el principal responsable de mantener la humedad de la selva tropical y otras partes del continente sudamericano.

Si no fuese por la humedad de la Amazonía, por ejemplo, las regiones de la Cuenca del Plata (sur, sureste y centro-oeste de Brasil, Paraguay, Uruguay y partes de Argentina y Bolivia) serían desérticas. El ciclo hidrológico de la Cuenca Amazónica evita un fenómeno recurrente en otros lugares del mundo que se encuentran en latitudes cercanas a los trópicos de Capricornio (Hemisferio Sur) y Cáncer (Hemisferio Norte). Las grandes zonas continentales de estas regiones suelen recibir muy pocas masas de aire húmedo y se convierten en desiertos, como los desiertos de Monjave y Sonora, en los Estados Unidos.

Además, la Amazonía alberga aproximadamente el 40% de la selva tropical del mundo y cerca del 15% de la biodiversidad terrestre del planeta. También es el hogar de un gran número de pueblos originarios, que dependen en gran medida de los ríos como corredores de transporte y utilizan estos entornos para su subsistencia.

El futuro de la conservación de la Cuenca Amazónica
Hasta ahora, los datos de teledetección utilizados en el estudio proceden de misiones con objetivos diferentes, pero podrían utilizarse para comprender el ciclo hidráulico en la Amazonia. Sin embargo, los investigadores señalan la necesidad de que las misiones lanzadas específicamente para estudios hidráulicos mejoren las lecturas espaciales.

Este año, la NASA planea lanzar el satélite Surface Water and Ocean Topography (SWOT, por sus siglas en inglés) y la misión NASA-ISRO (NISAR). Ambas iniciativas aportarán nuevas oportunidades de estudio en la zona con equipos dedicados a las observaciones hidráulicas.

NISAR, por ejemplo, tendrá una cobertura mundial y períodos de revisión de 12 días (el intervalo de tiempo que demora el satélite hasta pasar por el mismo lugar), lo que aumentará la disponibilidad de datos. También cuenta con sensores específicos capaces de vigilar las aguas superficiales (ríos, arroyos, lagos) de la Amazonía con mayor claridad.

El SWOT, por su parte, permitirá una observación sin precedentes a lo largo de la red fluvial y en los principales lagos y llanuras de inundación. Dedicado a captar muestras de ríos de más de 100 metros de ancho y lagos de más de 250 metros cuadrados, el satélite será "un gran avance para la vigilancia de las aguas transfronterizas y los humedales de Amazonía", afirma Fassoni-Andrade.

Para el investigador, estos lanzamientos ayudarán a que estas técnicas de vigilancia a distancia se popularicen y sirvan de base para tomar decisiones sobre la región: "La esperanza es que en el futuro, al igual que utilizamos la meteorología en nuestra vida cotidiana, estos datos puedan dar pie a pensar en políticas públicas para la gente que vive en la región y para la preservación del medio ambiente".

La expectativa es que, haciendo uso de los avances tecnológicos disponibles, sea posible democratizar la comprensión de los cambios ambientales en la Amazonía, fortaleciendo las iniciativas para un futuro verdaderamente sostenible en la mayor cuenca fluvial del mundo.

El descubrimiento del "Mar Dulce"
"Un río cuya desembocadura es tan grande como un mar", habría exclamado el capitán español Vicente Pinzón, protagonista del primer encuentro de un europeo con el Río Amazonas. En su libro Vicente Pinzón y el Descubrimiento de Brasil (Topbooks, 2001) el periodista Rodolfo Espínola narra cómo el enorme caudal de agua dulce impresionó al navegante, que llegó a la desembocadura del Amazonas a la altura de la Isla de Marajó en el actual estado brasileño de Pará.

Entre enero y febrero de 1500, Pinzón se encontraba buscando una ruta hacia el Oriente, según estiman los historiadores, a partir de mapas y cartas de la época. El español se cuenta entre los primeros navegantes europeos en llegar a las Américas, ya que participó en el primer viaje de Cristóbal Colón en 1492 como capitán de la carabela La Niña.

Pinzón bautizó al lugar con el nombre de Santa María de la Mar Dulce, pero no imaginó la dimensión verdaderamente colosal que este río, del tamaño de un mar, encerraba tras la densa selva tropical que enmarañaba sus orillas. Se trata de la mayor cuenca fluvial del mundo, con siete millones de kilómetros cuadrados.

La cuenca del Río Amazonas se extiende por el territorio actual de ocho países sudamericanos (Brasil, Bolivia, Colombia, Ecuador, Guyana, Perú, Surinam y Venezuela) y un territorio francés de ultramar (Guayana Francesa). Es la cuenca con mayor volumen de agua dulce del mundo y está compuesta por más de mil afluentes, cuatro de los cuales se encuentran entre los 10 mayores ríos del planeta: el Madera, el Guainía (también llamado Río Negro), el Caquetá (llamado Japurá en Brasil) y, por supuesto, el Amazonas.

¿Cómo la desaparición de un calamar de la costa mexicana llevó a la huida de cientos de ballenas?

Enviado por

PAULINA BRAVO CIRILO

Entre 2009 y 2018, un grupo de investigadores estuvo realizando un seguimiento de la población de ballenas en el golfo de California, en México. Los primeros siete años transcurrieron con normalidad, pero todo cambió en 2015: las ballenas comenzaron a desaparecer.

La desaparición de las ballenas. Ahora, el equipo responsable de realizar el seguimiento, ha publicado un estudio analizando la extraña desaparición, casi repentina, de la población de cachalotes (Physeter macrocephalus) del golfo de California. En su estudio, señalan como causa probable otra ausencia de las aguas del mar, la de otro coloso: el calamar de Humboldt (Dosidicus gigas).

Según explica el equipo responsable del estudio, la población de cachalotes en el golfo durante el periodo entre 2009 y 2015 solía oscilar entre los 20 y los 167 ejemplares, con una población total de 354 individuos. Sin embargo la situación cambió drásticamente, y entre 2016 y 2018 dejaron de avistarse estas ballenas en el área.

Sin comida no hay ballenas. El motivo de la migración de los cetáceos estaría en la desaparición del calamar de Humboldt, una de las principales fuentes de alimentación de estas ballenas. La desaparición de su alimento habría obligado a estos mamíferos marinos a abandonar el golfo en la costa norteamericana.

Desapariciones encadenadas. ¿Y por qué desaparecieron los calamares? Según el equipo responsable del estudio, el detonante de este primer adiós estuvo en cambios medioambientales, como el progresivo calentamiento del océano y el fenómeno de El Niño.

Los cambios en la población del calamar de Humboldt se habían manifestado de distintas formas, no solo con la reducción en el número de ejemplares sino con un cambio hacia fenotipos más pequeños. Esto a su vez habría implicado más dificultades a la hora de servir de fuente alimentaria a las ballenas.

Los detalles del estudio realizado por el equipo fueron publicados recientemente en un artículo en la revista Peer J.

Una mala señal. El rol de los cachalotes en la cúspide de la pirámide trófica implica, señala el equipo, que estos desempeñan un papel clave en el flujo energético en los ecosistemas marítimos. Es por ello que su desaparición pueda ser simplemente la punta del iceberg de un cambio más profundo pero menos perceptible.

“La salida de los cachalotes del golfo de California sirve como una señal de centinela, reflejando cambios significativos en los ecosistemas marinos. Conforme cambia el ambiente, así lo hace el delicado balance entre depredadores y presas”, señala en una nota de prensa Héctor Pérez-Puig, coautor del estudio.

Trabajo por realizar. En su artículo, el equipo señala que, pese a que el estudio pueda alertarnos sobre el problema, más trabajo es necesario para desentrañar los detalles de los cambios en los ecosistemas submarinos. Señalan, por ejemplo, la utilidad de estudios que pongan el foco en los movimientos individuales de estos cetáceos.

Una mejor comprensión de las dinámicas poblacionales de especies como el calamar de Humboldt podrían ayudarnos a evaluar mejor la magnitud del problema, tanto en el presente como en un futuro próximo.

domingo, 17 de noviembre de 2024

Super poderes geneticos 2 :Como pez en el agua

“¡A ver quién aguanta más!” Seguro que hace unos cuantos años, cuando casi no superabais el metro de altura, os pasabais los veranos jugando con vuestros primos en la piscina o en la playa (O en algún río o lago en el caso de los más valientes e imprudentes) y esta era una de las frases más comunes que salían de vuestras bocas. Y entonces empezaba la batalla. Todos os sumergíais y empezabais a contener la respiración hasta que, exhaustos, teníais que salir a la superficie. Y lo volvíais a intentar. ¡Qué tiempos aquellos!


Pues bien, nosotros únicamente jugamos a esos juegos en versión fácil. Existe una tribu nómada del sudeste de Asia cuyos miembros, a diferencia del resto de humanos, pueden aguantar sin respirar bajo el agua la friolera de 13 minutos. ¡Ariel estaría orgullosa!

Un estudio reciente ha identificado las causas genéticas de la gran capacidad de estos grandes maestros innatos de la apnea.

Los investigadores realizaron un estudio comparativo entre individuos de la tribu Bajau y una tribu vecina, los Saluan. Así, se demostró que habían diferencias significativas entre el bazo de los Bajau y el de los Saluan, siendo el de los primeros de un tamaño superior.

¿Qué es el bazo?
Los que no estan muy relacionados con el ámbito de la anatomía humana y ese tipo de asuntos, seguramente desconozcan la función del bazo.


Pues bien, el bazo es un órgano presente en casi todos los vertebrados muy relacionado con el sistema circulatorio y el sistema inmunitario. Este órgano es el encargado de destruir eritrocitos (glóbulos rojos) antiguos, realizar parte de la eritropoyesis (formación de células sanguíneas) y servir como una pequeña reserva de sangre. Los Bajau tienen este órgano aproximadamente un 50% más grande de media que el resto de mortales.

Aunque… ¿Qué tiene que ver este órgano con la respiración? Pues… Si piensas en la respiración como tal, nada, aunque sí con la circulación de la sangre.

Cuando una persona, en este caso un Bajau, se sumerge en las profundidades del océano para conseguir corales o peces, disminuye su ritmo cardíaco. Se produce una vasoconstricción en las extremidades para disminuir el riego sanguíneo en estas y abastecer de manera más eficiente los órganos vitales con sangre oxigenada. Los eritrocitos oxigenados del Bajau se van agotando a medida que pasa el tiempo y el bazo se va comprimiendo, descargando la sangre oxigenada de su interior al torrente sanguíneo. Esto impide la asfixia inmediata.

Causas genéticas
Aparentemente, este gran tamaño del bazo está relacionado con mutaciones en el gen PDE10A, ubicado en el brazo que del cromosoma 6 humano.

Se sabe que el gen PDE10A regula la acción de las hormonas tiroideas en el desarrollo post-natal. Las hormonas tiroideas (T3 y T4) son moléculas yodadas (contienen el elemento Yodo) que se sintetizan en la glándula tiroides. Sus funciones son muy diversas y están relacionadas entre otras con el crecimiento, la generación de calor, el metabolismo óseo y el desarrollo cerebral.

Esto no tiene nada que ver con el bazo, ¿no?
Error. Las hormonas tiroideas regulan, a su vez la eritropoyesis y, casualmente, el bazo tiene una cierta actividad formadora de eritrocitos. Se considera que una mayor cantidad de hormonas tiroideas podría contribuir a una mayor actividad eritropoyética en el bazo y, por lo tanto, causaría un aumento en el tamaño de este órgano. Este hecho, además, contribuiría a producir una mayor cantidad de eritrocitos que podrían oxigenarse. Además, las hormonas tiroideas intervienen también en la respuesta correcta al estado de hipoxia (falta de oxígeno), estado en el que te encuentras cuando estás bajo el agua y no puedes respirar.

El mismo estudio también identificó mutaciones en el gen BDKRB2, en el brazo q del cromosoma 14. Se considera que este gen está relacionado el reflejo de buceo en humanos.

Tras este descubrimiento, puede que pienses que este “superpoder” es meramente genético, pero lo cierto es que, al igual que el español Aleix Segura Vendrell, que ostenta el récord Guiness (24 minutos y 3 segundos sin respirar bajo el agua), los Bajau adquieren esta capacidad con la práctica. Estos “gitanos del mar” son un pueblo nómada cuyo estilo de vida depende del agua marina, alimentándose de lo que el mar les ofrece. Esta presión selectiva les ha hecho evolucionar hacia individuos con mayor capacidad para permanecer bajo el agua.

Estamos siendo testigos de una de las adaptaciones genéticas más fascinantes de la historia evolutiva humana reciente.

Estudio pone en duda la teoría sobre la formación de las galaxias

Enviado por

VALERIA ATZIYADE RAMIREZ CRUZ

La formación de galaxias en el universo primitivo no respondería a la teoría más extendida entre los científicos, que contempla la existencia de la materia oscura, sugiere un equipo de investigación que usa datos del telescopio espacial James Webb y retoma otra hipótesis.

El modelo estándar predecía que el Webb vería señales débiles de galaxias pequeñas y primitivas, pero según un estudio que publica The Astrophysical Journal, los datos no confirman que la materia oscura ayudara a las primeras estrellas y galaxias a agruparse.

Por el contrario, las galaxias más antiguas son grandes y brillantes, de acuerdo con una teoría alternativa de la gravedad, lo que desafía la comprensión que los astrónomos tenían del universo primitivo, indica la investigación, encabezada por la Universidad Case Western Reserve (EE.UU.).

“Lo que predecía la teoría de la materia oscura no es lo que vemos”, según Stacy McGaugh, uno de los firmantes del estudio, informó la citada universidad.

La investigación contrapone el sistema de la Dinámica Newtoniana Modificada (MOND), formulado en 1998, al modelo Lambda-CDM (LCDM) para explicar la formación de las primeras galaxias.

El LCDM contempla la existencia de la materia oscura fría (la más presente en el universo, pero que aún no se sabe de qué está compuesta) y predice que las galaxias se formaron por acreción gradual de materia desde estructuras pequeñas a mayores, debido a la gravedad extra que proporciona la masa de materia oscura.

Por su parte, la MOND, en la que se apoya el nuevo estudio, considera que, en lugar de la materia oscura, sería la gravedad modificada la que podría haber desempeñado un papel en la formación de las primeras galaxias.

Además, con este sistema la creación de estructuras en el universo primitivo habría sido muy rápida, mucho más que lo supuesto por la LCDM.

“Los astrónomos -señaló McGaugh- inventaron la materia oscura para explicar cómo se pasa de un universo primitivo muy liso a las grandes galaxias con mucho espacio vacío entre ellas que vemos hoy en día”.

Si las galaxias se formaron por acreción, el James Webb habría sido capaz de ver los pequeños precursores de las galaxias en forma de una luz tenue.

“Lo que se esperaba era que todas las galaxias grandes que vemos en el universo cercano se hubieran formado a partir de estos pequeños fragmentos”, explicó el científico.

Sin embargo, observando con el telescopio espacial cada vez más temprano en la evolución del universo las señales son mayores y más brillantes de lo esperado.

La MOND, con la que no existe la materia oscura, postula que la masa que se convierte en galaxia se ensambla rápidamente e inicialmente se expande hacia el exterior con el resto del universo.

Posteriormente, la fuerza gravitatoria frena la expansión y luego la invierte, de modo que la materia colapsa sobre sí misma para formar una galaxia.

Las estructuras grandes y brillantes observadas por el Webb en las primeras fases del universo fueron predichas por MOND hace más de un cuarto de siglo.

sábado, 16 de noviembre de 2024

La promesa de los cromosomas humanos artificiales

Enviado por

PAULINA BRAVO CIRILO

Los cromosomas humanos artificiales representan una de las últimas fronteras de la biología sintética y tienen el potencial de revolucionar la medicina y la investigación genética. No se trata de una fantasía de novela de ciencia ficción, sino de una realidad emergente en el campo de la genómica.

Un cromosoma es, en esencia, una gran cantidad de ADN que almacena información genética en genes que actúan como manuales de instrucciones.

En los seres humanos, cada célula tiene, típicamente, 46 cromosomas organizados en 23 pares. Esto es lo que nos define como especie y nos diferencia de chimpancés y orangutanes, que poseen cariotipos con 24 pares de cromosomas.

Funcionalmente, un cromosoma requiere varios componentes: necesita un centrómero para su correcta separación durante la división celular. También necesita proteger sus extremos con telómeros a fin de prevenir la degradación del ADN.

Además, debe tener varios orígenes de replicación. Estos elementos aseguran que un cromosoma se propague de manera estable en cada nueva generación de células.
Así, la creación de un cromosoma humano “a la carta” implica diseñar y ensamblar por ingeniería genética estos elementos para formar una estructura funcional y estable. Junto con genes específicos y sus elementos reguladores, podría introducirse en células humanas y cumplir las mismas funciones que un cromosoma “natural”.

De vectores de clonación a cromosomas artificiales
Para el Proyecto Genoma Humano se crearon vectores de clonación que permitían aislar y amplificar nuestro ADN, introducidos en bacterias o levaduras para que pudieran replicarse. Estos vectores podrían considerarse como cromosomas humanos artificiales primitivos.

Desde entonces, han evolucionado y permitido grandes avances en biología molecular e ingeniería genética. Hace ya un cuarto de siglo, se crearon microcromosomas artificiales con un verdadero centrómero, telómeros y pequeños fragmentos de ADN de interés.

Este año, un reciente estudio en Science ha anunciado un nuevo hito: un nuevo cromosoma artificial mucho más largo que vectores previos, que simula la complejidad de un cromosoma humano.

Aplicaciones en medicina
Cuando los genes en un cromosoma artificial humano se expresan dentro de una célula, pueden servir para el estudio de enfermedades genéticas. A diferencia de los organismos transgénicos, donde la expresión depende de su punto de integración, los cromosomas artificiales ofrecen un control preciso sobre la dosis génica.

Intuitivamente, si introducimos tres copias de un gen, las proteínas resultantes serán el triple. Con este enfoque, por ejemplo, se han generado ratones con un cromosoma humano artificial para simular trisomías del cromosoma 21 y estudiar el síndrome de Down.

Estos cromosomas también podrían tratar enfermedades hereditarias, al garantizar una expresión génica controlada y prolongada.

Sin ir más lejos, hace unos años, se desarrolló una terapia para la esclerosis lateral amiotrófica usando este método. En el estudio, se inoculó a ratones enfermos con células madre portadoras de este cromosoma, lo que mejoró significativamente su esperanza de vida.

Por otro lado, los cromosomas artificiales de nueva generación tienen la ventaja de poder llevar muchos genes a la vez, a diferencia de los vectores tradicionales que solo dan cabida a uno o dos genes. Esto les permite funcionar como complejas fábricas biotecnológicas, produciendo proteínas esenciales para varias aplicaciones.

Por ejemplo, podrían servir como terapias personalizadas contra enfermedades como el cáncer, donde se requieren múltiples proteínas de manera coordinada.

A diferencia de otros vectores propuestos para terapia génica, como adenovirus o retrovirus, los cromosomas artificiales no se integran en nuestro cariotipo, evitando así inestabilidad génica.

Además, podrían ser más seguros que la edición genética con CRISPR-Cas9, que, aunque revolucionaria, puede ocasionar efectos secundarios no deseados.
¿Qué nos hace humanos?
Las mejoras en esta tecnología plantean desafíos éticos complejos. Entre ellos, los posibles efectos secundarios, el riesgo de alterar irreversiblemente el patrimonio genético humano, la falta de equidad en el acceso a las terapias y posibles usos indebidos.

En la memoria colectiva, persisten casos como el de Jesse Gelsinger, quien falleció por una respuesta inmune severa a una terapia génica. Más recientemente, otro paciente murió durante una terapia genética experimental contra la distrofia muscular de Duchenne. Estos incidentes han generado un gran estigma social contra estas terapias. Superarlo será difícil.

Al mismo tiempo, el uso de terapias para la mejora genética humana, incluyendo cromosomas artificiales, es un tema cada vez más pujante debido a los continuos avances en ingeniería genética.

Voces detractoras, como Michael Sandel, cuestionan estas prácticas por consideraciones éticas, alertando sobre posibles riesgos para la naturaleza y la dignidad humanas.

Por otro lado, partidarios de la eugenesia liberal humana, como Nicholas Agar, defienden que estas intervenciones deben ser voluntarias, respetando la libertad reproductiva de los padres para modificar genéticamente a sus hijos.

Encontrar un equilibrio entre estas posturas y definir lo que es éticamente aceptable sigue siendo un desafío considerable. Esto es especialmente relevante frente a puntos de vista polémicos, como los expresados por el biólogo molecular James Watson, quien aboga por el uso libre de técnicas eugenésicas para resolver “problemas” como la estupidez o la homosexualidad.

Salvar estos obstáculos será fundamental para aprovechar el potencial terapéutico de los cromosomas artificiales, mientras se protege la integridad y dignidad humanas. El debate requiere un enfoque equilibrado que fomente la innovación responsable y el acceso equitativo a esta tecnología.

Hallan una hormona que regenera los tejidos y servirá para el tratamiento de lesiones graves

Enviado por

VALERIA ATZIYADE RAMIREZ CRUZ 

La autotomía, la capacidad de un animal de desprenderse de una parte de su cuerpo para eludir a los depredadores, es una estrategia de supervivencia bien conocida en el reino animal. Ahora, un equipo de científicos descubrió cómo las estrellas de mar logran esta extraordinaria hazaña de conservación.

En concreto, investigadores de la Universidad Queen Mary de Londres identificaron una neurohormona responsable de desencadenar esta autoamputación. El hallazgo se publica en la revista Current Biology.

Descubrimiento científico: ¿cómo funciona la hormona que regenera los tejidos?
Los lagartos que se desprenden de su cola son un ejemplo bien conocido de la autotomía, pero los mecanismos que subyacen a este proceso siguen siendo un gran misterio, describe un comunicado de la universidad. Los científicos desvelaron "una pieza clave del rompecabezas".

El estudio de la estrella de mar europea Asterias rubens permitió identificar una neurohormona parecida a la hormona de la saciedad humana, la colecistoquinina, como reguladora del desprendimiento de los brazos.
Cuando esta neurohormona se libera en respuesta al estrés, como el ataque de un depredador, estimula la contracción de un músculo especializado en la base del brazo de la estrella de mar, lo que provoca su desprendimiento.

Ana Tinoco, miembro del grupo de investigación londinense que ahora trabaja en la Universidad de Cádiz (España), señala que estos hallazgos arrojan luz sobre la compleja interacción de neurohormonas y tejidos que intervienen en la autotomía de las estrellas de mar.

"Aunque hemos identificado un actor clave, es probable que otros factores contribuyan a esta extraordinaria capacidad", añade la investigadora.

Las estrellas de mar poseen increíbles capacidades regenerativas que les permiten recuperar con el tiempo las partes perdidas.

La importancia del descubrimiento para el tratamiento de lesiones de extremidades
Comprender los mecanismos precisos de este proceso podría tener importantes implicaciones para la medicina regenerativa y el desarrollo de nuevos tratamientos para las lesiones de las extremidades, resumen los autores.

Maurice Elphick, catedrático de Fisiología Animal y Neurociencia de la Universidad Queen Mary de Londres, que dirigió el estudio, resalta que "esta investigación no solo desvela un aspecto fascinante de la biología de las estrellas de mar, sino que también abre puertas para explorar el potencial regenerativo de otros animales, incluidos los humanos".

"Al descifrar los secretos de la autoamputación de las estrellas de mar, esperamos avanzar en nuestra comprensión de la regeneración de los tejidos y desarrollar terapias innovadoras para las lesiones de las extremidades", precisa.

viernes, 15 de noviembre de 2024

Nobel de Química 2024

Enviado por

Guillermo Florez Gonzalez

La Real Academia de las Ciencias de Suecia ha otorgado este miércoles el Premio Nobel de Química 2024, con una mitad a David Baker por “el diseño de proteínas con computación” y la otra mitad conjuntamente a Demis Hassabis y John Jumper por “la predicción de la estructura de las proteínas mediante el uso de inteligencia artificial”. El comité que ha otorgado el galardón ha destacado las potenciales aplicaciones de sus logros científicos en numerosos procesos en los que están implicadas las proteínas, desde el desarrollo más rápido de vacunas al descubrimiento de nuevos nanomateriales, pasando por el diseño de fármacos dirigidos para tratar el cáncer o la evolución hacia una industria química más verde. Para dar una idea del nuevo universo que abren a la ciencia los avances de Baker, Hassabis y Jumper, el presidente del comité, Heiner Linke, señaló que “si queríamos entender cómo funcionan las proteínas, primero había que saber qué aspecto tienen” e incidió en los grandes beneficios para la humanidad que traerá ese conocimiento.

El británico Demis Hassabis (Londres, 1976) y el estadounidense John Jumper (Little Rock, 1985) han utilizado con éxito la inteligencia artificial acelerar una carrera científica que llevaba medio siglo abierta, desde la empresa Google Deepmind de la que Hassabis es el consejero delegado. Con su modelo de inteligencia artificial AlphaFold2, presentado en 2020, han logrado predecir la estructura tridimensional de casi todas las proteínas identificadas hasta la fecha —unos 200 millones—, partiendo únicamente de la secuencia de aminoácidos que forma su cadena. Estas larguísimas cadenas se pliegan en formas tremendamente complejas, que determinan la función y actividad biológica de las proteínas, y predecir esas estructuras era un reto pendiente de la ciencia desde los años 1970.
El estadounidense David Baker (Seattle, 1962) ha aprendido a dominar los denominados bloques de construcción de la vida —los 20 aminoácidos— y a crear proteínas completamente nuevas que no existían en la naturaleza. Lo logró por primera vez en 2003 y, desde entonces, la imaginativa cocina de su grupo de investigación en el departamento de bioquímica de la Universidad de Washington ha diseñado proteínas a la carta, para usarlas como medicamentos, como nuevas vacunas —con éxito ya en modelos animales— o como diminutos sensores —que permiten, por ejemplo, detectar la presencia de la droga fentanilo en el ambiente. Tras ser felicitado por el comité de los Nobel que le ha otorgado el premio, Baker declaró sentirse muy “emocionado y honrado” y agradeció a los investigadores que le precedieron y acompañaron en su campo, citando la clásica frase que escribió en 1675 Isaac Newton: “Si he visto más lejos, ha sido subiéndome a hombros de gigantes”.

Para su descubrimiento, Baker desarrolló en su día una herramienta de computación llamada Rosetta, y hoy ha agradecido las contribuciones de los galardonados ayer con el Nobel de Física —por sus desarrollos para el aprendizaje automático con redes neuronales— como fundamentales para hacer realidad la predicción de la estructura de proteínas con IA, por la que Hassabis y Jumper se han llevado la otra mitad del Nobel de Química. Los tres nuevos nobeles de Química compartieron también en 2023 el premio Fronteras del Conocimiento, que otorga la Fundación BBVA, en la categoría de Biología y Biomedicina. Demis Hassabis y Geoffrey Hinton —nuevo Nobel de Física— fueron también dos de los cuatro galardonados en 2022 con el premio Princesa de Asturias de Investigación Científica, “por sus desarrollos de redes neuronales fundamentales en todos los campos de la ciencia y la tecnología”.

La primera IA que revoluciona la ciencia: beneficios y riesgos
En una conferencia de prensa ofrecida por Google DeepMind, tanto Demis Hassabis como John Jumper expresaron su “increíble emoción y honor” porque la Academia Sueca haya reconocido las investigaciones a las que han dedicado su carrera científica. “La tarea de mi vida ha sido buscar aplicaciones de la inteligencia artificial que mejoren la vida de las personas y, en concreto, que aceleren los descubrimientos científicos”, declaró Hassabis, recordando cómo su interés de niño en el ajedrez y los ordenadores le llevó a desarrollar AlphaGo, una IA que derrotó en 2016 al campeón del mundo de go, un juego de tablero cuya complejidad de movimientos posibles supera a la del ajedrez.

AlphaGo fue el primer gran éxito de la compañía DeepMind, cofundada por Hassabis en 2010 y adquirida por Google en 2014, y sentó las bases de AlphaFold, la primera herramienta de inteligencia artificial que ha revolucionado la investigación científica. Hassabis hizo una reflexión general sobre la IA, horas después de conocer que había recibido el Nobel de Química por la aplicación de esa tecnología al estudio de las proteínas: “La inteligencia artificial es quizás la tecnología más poderosa que ha tenido la humanidad. Va a afectar a todos los ámbitos de nuestra vida y, con respecto a su uso, me defino como optimista cauto: tiene un enorme potencial para aplicaciones beneficiosas, pero también podrá usarse para hacer daño. Esto nos puede crear problemas sin precedentes y necesitaremos afrontar los riesgos de la IA”, afirmó el científico computacional, quien aprovechó la ocasión para pedir cooperación internacional para estar preparados para el reto que supondrá “la siguiente generación de herramientas de IA, que llegará en 10 años o así: tendrán más riesgos y habrá que estar más preparados. Vamos en la dirección correcta con las cautelas actuales, pero tenemos que ir más rápido”.

En la misma comparecencia, el también premiado John Jumper destacó que el secreto de que AlphaFold haya resuelto el problema de la estructura de las proteínas es que “la inteligencia artificial es increíblemente buena desentrañando patrones que las personas no podemos ver. Pero eso no se consigue ‘con solo darle al botón de la IA’. El desarrollo de AlphaFold ha sido un proceso iterativo muy complejo, desarrollado durante años por un grandísimo equipo y el premio reconoce el potencial de la biología computacional”. Para Jumper, la clave es que estas herramientas nos ayudarán a entender mejor las enfermedades y, sobre todo, a hacerlo mucho más rápido. Su colega Hassabis reconoció que, en esta nueva era científica que se abre, “tendremos que ser cautos: seguir usando los procedimientos científicos adecuados y, además, asegurarnos que entendemos estos sistemas y que podemos controlarlos”.

Limitaciones y transparencia de doble filo
José Antonio Márquez, investigador del Laboratorio Europeo de Biología Molecular (EMBL), ha manifiestado su satisfacción por “un premio Nobel muy merecido y que se ha otorgado muy poco tiempo después de que se lograran los avances ahora reconocidos”. Pero para Márquez, que trabaja dilucidando estructuras de proteínas del sincrotrón del EMBL en Grenoble (Francia), esta rapidez no ha sido ninguna sorpresa. “Este premio era algo que esperábamos, porque la comunidad científica ha absorbido en muy poco tiempo esos avances. Todos los laboratorios aplican ahora esa metodología por defecto: gracias a AlphaFold, conocer la estructura más probable de una proteína lleva segundos o minutos, mientras que antes eran meses o años de trabajo experimental”, explica este científico, quien aclara que para que esto sea posible ha sido fundamental el acceso abierto a los modelos de proteínas y al código del software usado tanto por David Baker como por Demis Hassabis y John Jumper.
Esta transparencia con la comunidad científica fue la seña de las dos primeras versiones de AlphaFold, que llevó en solo dos años consiguieron predecir la estructura de 200 millones de proteínas; cuando en los 60 años anteriores solo se había determinado la forma en 3D de unas 200.000 proteínas. Sin embargo, AlphaFold3 ha generado una cierta controversia porque su acceso gratuito es limitado para los investigadores y su código no está disponible. La gran novedad de la tercera versión de esta IA es que ahora permite predecir también las interacciones entre las proteínas y el resto de moléculas esenciales de la vida. Esto permitirá acelerar el desarrollo de nuevos medicamentos, pero ya no es algo que está a libre disposición de la comunidad científica.

Para Alfonso Valencia, director de Ciencias de la Vida en el Centro Nacional de Supercomputación de Barcelona (BSC) el Nobel de Química 2024 “reconoce lo que se ha convertido en el avance más significativo de la inteligencia artificial. Los métodos implementados por Demis Hassabis y John Jumper para la predicción de la estructura de proteínas a partir de su secuencia se han convertido en un recurso imprescindible en biotecnología y biomedicina”. Valencia ha explicado, en declaraciones a SMC España, que una diferencia fundamental entre AlphaFold y otras populares herramientas de IA, como por ejemplo ChatGTP y sus respuestas no demasiado fiables, “es que estas predicciones de estructura [de las proteínas] vienen acompañadas de un índice de confianza en la calidad del resultado”.

Márquez recuerda que, “a pesar del alto grado de fiabilidad de AlphaFold al predecir la estructura del 80% de proteínas, hay algunos tipos de ellas con las que es mucho menos fiable”. Además, este investigador recuerda otra limitación fundamental de estas herramientas de IA que usan redes neuronales: “Son muy hábiles encontrando patrones, pero no nos explican cómo lo hacen. Así que para nosotros es un avance brutal tener predicciones fiables de las estructuras, y tan rápido, pero seguimos sin entender por qué las proteínas se pliegan de esa manera y no de otra”.

El galardón está dotado con 11 millones de coronas suecas, unos 950.000 euros. Tras los galardones de Medicina y de Física, conocidos el lunes y el martes, con el de Química continúa la ronda de anuncios, que culminará el jueves con el de Literatura y el viernes con el de la Paz. En 2023, los premiados fueron el francés Moungi Bawendi, el estadounidense Louis E. Brus y el ruso Alexei Ekimov, por el descubrimiento de los puntos cuánticos.

Desde 1901, el Premio Nobel de Química se ha otorgado 116 veces y ha quedado desierto en ocho ocasiones —la última, en 1942—. Como este premio puede ser compartido cada año entre hasta tres laureados, un total de 195 personas lo han recibido. Solo ocho de ellas son mujeres: la primera fue Marie Curie, en 1911; y la última, Carolyn Bertozzi, en 2022. Y únicamente han ganado dos veces el Nobel de Química los científicos Frederick Sanger (en 1958 y 1980) y Barry Sharpless (en 2001 y 2022).

jueves, 14 de noviembre de 2024

10 consejos que te ayudarán a prevenir el cáncer de mama

El cáncer de mama es el tumor maligno más frecuente en la mujer. Se dice que una de cada ocho mujeres tendrá cáncer de mama en el transcurso de su vida. Es muy importante conocer los factores que aumentan el riesgo de padecer esta enfermedad y modificar aquellos que se puedan cambiar.

10. Buena alimentación
La alimentación juega un papel fundamental en la prevención y desarrollo de las enfermedades humanas y el cáncer de mama no es la excepción. Distintos estudios demostraron que existe una relación entre el desarrollo de cáncer de mama en la mujer y el consumo de grasas de origen animal y de azúcares refinados. Por el contrario, el consumo de frutas y verduras podría ser un factor protector frente a esta enfermedad. La diadzeína y la genisteína son dos isoflavonas pertenecientes al grupo de los flavonoides que tienen propiedades que protegen a la mujer frente al cáncer de mama. Estos fitoquímicos se encuentran principalmente en el poroto de soja.

9. Peso normal
La obesidad aumenta el riesgo de padecer cáncer de mama principalmente después de la menopausia. Los estrógenos son hormonas femeninas producidas principalmente por los ovarios, las cuales se relacionan con el desarrollo de cáncer de mama cuando hay una exposición prolongada. Existen tres tipos de estrógenos, el estradiol, el estriol y la estrona. El aumento en los estrógenos circulantes hace que los mecanismos compensatorios y protectores del organismo no sean capaces de reparar los daños producidos. Esto ocurre en la obesidad. Se dice que las mujeres obesas menopáusicas tienen un 50 a 100% más de estrógenos que las no obesas debido a que el tejido graso es capaz de producirlos (aumenta los niveles de estrona).

8. Autoexamen mamario
El saber examinarse las mamas es fundamental para prevenir el desarrollo del cáncer. Para hacer esto, estando de pie, debes partir la mama de forma imaginaria en cuatro cuadrantes y tocar con el pulpejo de los dedos tratando de detectar zonas duras o alguna anormalidad en cada uno de ellos. También la puedes palmar de forma completa siguiendo dos direcciones, desde afuera hacia adentro en forma circular como un «caracol» o en forma radiada como los «rayos de una rueda de bicicleta» tratando de que no quede ninguna zona sin palpar. Te debes fijar si hay secreciones por el pezón o si éste está retraído o invertido o si existen cambios de color en la piel de la mama. Es muy importante que vayas de inmediato al médico si encuentras algo anormal.

7. Mamomagrafía
La mamografía es el método de screening o de detección precoz del cáncer mamario más importante. Utiliza los rayos X para analizar la mama. El estudio básico consta de dos «cortes» (dirección de entrada de los rayos X), uno de frente y otro de perfil. Todas las mujeres a partir de los 40 años deben hacerse este estudio anualmente o cada dos años según determine el médico. Las mujeres con antecedentes de cáncer mamario directo deberán realizarse una mamografía a partir de los 35 años o 10 años antes del antecedente familiar más joven y deberán repetirlo todos los años. Este estudio es rápido y sencillo pero puede generar malestar ya que la mama se tiene que comprimir pero esta pequeña molestia es preferible al cáncer de mama.

6. Pubertad precoz
La menarca precoz se asocia al desarrollo de cáncer de mama debido a que aumenta el tiempo de exposición a los estrógenos. Se llama menarca a la primera mestruación y esta debe acontecer de manera normal entre los 8 y 16 años (12 años como promedio). Si ocurre antes de los ocho años o hay evidencias de más de dos caracteres sexuales secundarios (aparición de vello pubiano, axilar o de la prominencia o botón mamario) antes de esa edad se puede estar frente a la pubertad precoz. Si te das cuenta que esto está aconteciendo en tu hija es importante que la lleves al pediatra. Al hacer esto estarás previniendo un factor de riesgo que puede hacer que desarrolle en el futuro un cáncer de mama.

5. Embarazo
Cómo ya se mencionó, los estrógenos son las hormonas femeninas encargadas de producir los caracteres sexuales secundarios en la mujer como el vello púbico y axilar, los cambios en la voz y el desarrollo mamario, entre otros. También ejercen un factor protector frente a las enfermedades cardiovasculares y osteoarticulares. Pero está comprobado que una exposición prolongada a los estrógenos aumenta el riesgo de tener cáncer de mama, por eso el embarazo es un factor protector frente al cáncer de mama ya que reduce el tiempo de exposición a los estrógenos.

4. Lactancia
La prolactina es una hormona liberada por la hipófisis que aumenta en las etapas finales del embarazo y durante la lactancia. Esta hormona, entre otras funciones, ayuda a desarrollar la glándula mamaria. La lactancia es un factor protector frente al cáncer de mama ya que la prolactina liberada evita la secreción de GNRH por parte del hipotálamo, inhibiendo así la liberación de FSH, hormona hipofisiaria encargada de estimular la liberación de los estrógenos, lo que disminuye la exposición a estos. Una mujer embarazada que luego amamanta a su hijo puede disminuir esta exposición por casi dos años, en cambio, la menstruación en una mujer que no amamanta vuelve entre las seis y ocho semanas post parto.

3. Alcohol
El alcohol es un factor de riesgo para muchas enfermedades, como la hipertensión arterial, los accidentes cerebrovasculares y el cáncer. Hay estudios científicos que han relacionado al consumo de alcohol con el desarrollo del cáncer de mama. Si bien no se sabe el mecanismo exacto, una copa de vino, una lata de cerveza o un vasito de licor aumenta el riesgo de desarrollar una enfermedad mamaria maligna, según un estudio realizado por la Dra. Ying Liu, profesora de la Facultad de Medicina de la Universidad de Washington.

2. Estudio genético
En alrededor de un 25% de los cánceres de mama familiares se pueden encontrar como responsables a los genes BRCA 1 y BRCA 2 mutados. Si una mujer tiene BRCA 1 tiene un 85% de riesgo de desarrollar cáncer de mamá y del 20 al 40% de desarrollar cáncer de ovario, y si tiene BRCA 2 tiene un 50% de riesgo de desarrollar cáncer de mama y del 10 al 20% de desarrollar cáncer de ovario. El BRCA 2 se asocia además al cáncer de mama masculino. Una mujer con mutación de estos genes puede pensar en una mastectomía o extirpación de la mama preventiva. Consulta a tu médico si crees que necesitas un estudio genético.

1. Radiaciones ionizantes
La radiación ionizante produce mutaciones del ADN en la célula. Dentro de este tipo de radiaciones se encuentran a los rayos X y los gamma, entre otros. Las personas más expuestas a este tipo de radiación son las sobrevinientes a una explosión nuclear, los trabajadores del área de la salud y los enfermos de cáncer que tienen que hacer radioterapia. El riesgo aumenta cuanto mayor es la dosis de radiación y menor la edad. Por ejemplo un estudio demostró que las mujeres menores de 20 años expuestas a radiaciones para tratar la enfermedad de Hodgkin tienen del 20 al 30% de riesgo de desarrollar un cáncer de mama entre 10 y 30 años después de terminado el tratamiento.



Describen el mecanismo del ADN circular extracromasómico para impulsar el cáncer

Enviado por

PAULINA BRAVO CIRILO

Se llama ADN circular extracromosómico (ADNec) y tres investigaciones recogidas este miércoles en la revista Nature describen el agresivo mecanismo por el que impulsa el cáncer, con nbase en el estudio de 15.000 pacientes con 39 tipos diferentes de tumores.

El ADNec es un tipo de molécula de ácido desoxirribonucleico circular y disociativo que se ha identificado en el citoplasma de diferentes tipos de células cancerosas.

Los científicos consideran que amplifica los llamados “oncogenes” (genes que sufrieron una mutación y tienen el potencial de causar cáncer), y está implicado tanto en la progresión de la enfermedad como en la resistencia a fármacos.

Los hallazgos parten de un grupo internacional de investigación llamado eDyNAmiC, que dirige el catedrático de patología de la universidad de Stanford, Paul Mischel, y que ha contado con una subvención de 25 millones de dólares de centros públicos del Reino Unido y Estados Unidos para descifrar los mecanismos del ADNec.

Mayor prevalencia de lo esperado
Hasta hace poco, se creía que solo alrededor del 2 % de los tumores contenía cantidades significativas de ADNec, pero los trabajos del equipo de Mischel demostraron, en 2017, que el ADNec estaba muy extendido y, probablemente, tenía un papel importante en el desarrollo del cáncer, en la resistencia a los tratamientos y en la existencia de metástasis.

El pasado año describieron cómo la presencia de ADNec hace que células precancerosas se transformen en cancerosas.

En los sucesivos estudios, han identificado antecedentes genéticos y rastros de las mutaciones que dan las claves de cómo se origina y prospera el ADN circular extracromasómico.

Han visto que ADNec se segrega sin interrupción durante la división celular “como unidades de varios círculos a las células hijas”.

“Esto pone en entredicho la regla de Gregor Mendel (el naturalista que definió por primera vez la herencia genética a través de estudios con guisantes) de la distribución independiente de genes que no están físicamente vinculados por secuencias de ADN”, afirma Mischel.

El investigador lo explica comparándolo con “conseguir una buena mano en el póquer: las células cancerosas que reciben esa buena mano de cartas reciben una ventaja y hemos descubierto el mecanismo por el que la logran”.

Un punto débil
Los científicos han visto un punto débil en este proceso ventajoso para las células cancerosas: “Existe una tensión inherente entre la transcripción y la replicación celular, cuando esos dos procesos chocan, la réplica se detiene y la célula activa puntos de control internos para detener la división celular hasta que se resuelva el conflicto”.

Así, uno de los artículos publicado este miércoles explica cómo el bloqueo de la actividad de una proteína llamada CHK1 logra provocar la muerte de las células tumorales que contienen ADNec (cultivadas en el laboratorio) y causa la regresión tumoral en experimentos con ratones con cáncer de estómago.

El inhibidor de CHK1 se encuentra ya en fase inicial de ensayos clínicos, haciendo cada vez más cercana la posibilidad de encontrar una cura al cancer.