Existe una adaptación retiniana, en donde los receptores aumentan o disminuyen la cantidad de pigmento. Cuanto menos luz, más pigmento, y viceversa. Pero el auténtico protagonista, es sin duda, el iris.
Todos sabemos lo que es el iris: ese diafragma, normalmente de un color vivo, que es capaz de variar el tamaño de su apertura central (la pupila o niña). La gente suele pensar que el iris está en la parte más superficial del ojo, aunque realmente está unos milímetros por detrás de la córnea. Lo que pasa es que esta córnea es un tejido transparente, invisible a simple vista.
Cuanta más luz, el iris cierra la pupila y entra menos radiación luminosa dentro del ojo: así evitamos deslumbrarnos. En penumbra, la pupila se dilata para que entre la máxima cantidad posible de luz.
Estamos acostumbrados al funcionamiento del iris humano, en donde la pupila tiene una forma perfectamente circular:
Pero la diversidad de pupilas que encontramos en el mundo animal es asombrosa. Tenemos la típica pupila de gato, con la pupila en forma de hendidura vertical:
También existen hendiduras horizontales, como es el caso de la cabra montesa:
No sólo los mamíferos terrestres tienen pupila. De hecho, casi todos los vertebrados la poseen. Podemos ver el ojo de un pulpo, con su pupila de hendidura horizontal:
Hablando ya de animales acuáticos, existen algunos cuya pupila tiene formas curiosas. Por ejemplo, el ojo de la raya:
Tiene un inclusión del iris hacia la pupila en su parte superior, quedando la pupila con forma de “U”. Esta protusión hace de sombrilla, excluyendo los intensos rayos de luz que vienen de la superficie. Además se cree que tienen una función de camuflaje.
El ojo de la sepia es más curioso todavía, porque tiene forma de “W”
Se cree que esta disposición ofrece también las ventajas de camuflaje y protección de la luz de superficie.
Pero no nos olvidemos que la principal misión del iris es regular la entrada de luz. Aunque la forma pupilar más “regular” es la redonda, las demás formas son válidas. De hecho, la hendidura tiene varias ventajas. Los ojos con buena visión nocturna necesitan de una mayor reducción de luz si quieren manejarse de día. Así, una hendidura vertical permite que al entrecerrar los parpados se consiga un control adicional. Nosotros, al tener la pupila redonda y central, no podemos entrecerrar los párpados para controlar la luz sin alterar la visión.
Pero, para minimizar la entrada de luz, tenemos el iris del geco:
Tiene un ojo grande porque es un reptil muy adaptado a la vida nocturna. Sin embargo, a la vez se desenvuelve bien por el día gracias a la impresionante adaptación de su iris. Cuando se cierra, su hendidura vertical es capaz de dejar solamente cuatro pequeños orificios como puntas de alfiler:
Por último, acabo con un dato médico, volviendo a hablar del ser humano. Las “pupilas de gato” que podemos ver en algunas ocasiones se deben a una enfermedad llamada coloboma de iris
Realmente no es que la pupila de una persona sea una hendidura como los gatos, es que falta una parte del iris. Por tanto, la pupila no se cierra bien y puede ocasionar problemas de mala adaptación a la luz intensa.
Bienvenidos al blog de ciencia para pasar el rato, siempre será mejor que ver la tele.
Páginas
▼
lunes, 31 de agosto de 2015
Agua en el desierto
Enviado por Sureli Olvera
El prototipo de esta máquina es capaz de producir 3 mil litros de agua potable al día, incluso en la sequedad del más pleno desierto.
Su inventor, Enrique Veiga, es un ingeniero frigorista de 75 años, oriundo de Sevilla, España, que se las ingenió para desarrollar un mecanismo capaz de extraer la humedad del aire y transformarla en agua. La revolucionaria máquina emplea la misma cantidad de electricidad que una lavadora doméstica para crear autónomamente agua potable, de características similares al agua de lluvia.
«El principio físico del que parte es simple, el de condensación de vapor de agua, que es lo que sucede, para que nos entendamos, con los aparatos de aire acondicionado domésticos. Claro, esto resultaría muy evidente en atmósferas con un gran porcentaje de humedad, lo complicado es desarrollarlo en condiciones de sequía extrema», explica el inventor.
Para llegar al prototipo actual, de máximo rendimiento, Viega señala que el trabajo fue arduo: «Comencé a trabajar en la máquina hace veinte años, la primera patente es de 1995, a raíz de una sequía que atravesaba España y que me hizo ponerme a trabajar en esto». Una de las primeras máquinas fabricada ya se encuentra funcionando en Namibia, África.
domingo, 30 de agosto de 2015
Neuronas digitales permitirían estudiar sistema nervioso
Enviado por Edgar Lucero
En una entrevista con la Agencia Informativa del Conacyt, Moctezuma Eugenio, quien realizó el doctorado en la Universidad de Brístol, Inglaterra, detalló que esta aplicación logró emular el comportamiento del sistema nervioso de un saltamontes.
Por lo que es importante que la neurona digital se modele en términos de estas propiedades químico-eléctricas, es decir, que ésta hable el mismo "lenguaje" que una neurona biológica.
Para poder lograr esa similitud, el investigador seleccionó un modelo matemático que captura la dinámica electroquímica de las neuronas.
Con ello, el investigador desarrolló una plataforma, la cual consiste en una tarjeta con un dispositivo conectado a una computadora que permite configurar y crear sistemas neuronales mediante una interfaz gráfica de usuario.
Lo más importante es que estos sistemas neuronales proporcionan información compatible de forma biológica, de la misma forma en que lo hacen las neuronas físicas, destacó.
Moctezuma Eugenio comentó que en una siguiente fase del proyecto se pretende mejorar la arquitectura del hardware o plataforma para poder implementar sistemas neuronales más grandes.
Además se quiere aumentar el nivel de información fisiológica para agregar más canales iónicos (conductancias) al modelo, además es necesario explorar una nueva forma de comunicación entre la plataforma y la PC y así lograr respuestas de neuronas en tiempo real.
También se planea realizar un sistema híbrido capaz de comunicarse con neuronas biológicas, agregó el investigador.
Pez Gato Eléctrico
Es una especie de siluro eléctrico
El pez gato eléctrico es un pez eléctrico africano, que era conocido por los antiguos egipcios. Figura en los frescos de las tumbas del año 2750 a.C. ya en el año 4000 a.C. se le menciona en los jeroglíficos, que dicen que él que "libera multitudes". Esto es exacto, ya que cuando un pescador toca a un pez gato capturado en su red y recibe una descarga eléctrica, suelta la red y todos los peces recobran inmediatamente su libertad.
El pez gato eléctrico está bastante aislado en la clasificación y él sólo es un familia.
El órganos eléctrico del pez gato está formado por una capa de músculos que se encuentra inmediatamente debajo de la epidermis y que cubre todo el cuerpo y parte de la cola. Este órgano se divide en compartimentos que contienen unas placas galvánicas, recibiendo cada una de ellas, las ramificaciones de una importante célula situada en la espina dorsal.
El polo positivo de este órgano está situado cerca de la cabeza, y el polo negativo en la cola. Un pez gato adulto de gran tamaño puede producir descargas de hasta 350 voltios. Varias descargas de menor intensidad siguen generalmente a la primera.
Los peces que viven en el mismo acuario se quedan aturdidos, cuando no mueren por estas descargas, de las que se sirve el pez gato eléctrico como medio de disuasión, cuando se siente amenazado por un enemigo.
También las utiliza para dominar mejor a los peces de los que se alimenta.
Desde el siglo XI, los árabes utilizaron este extraño pez para calmar los dolores. Lo aplicaban en las partes doloridas del cuerpo del paciente.
Grupo: Vertebrados
Clase: Osteictios
Orden: Siluriformes
Familia: Malapterúridos
Género y especie: Malapterurus electricus (pez gato eléctrico)
El pez gato eléctrico es un pez eléctrico africano, que era conocido por los antiguos egipcios. Figura en los frescos de las tumbas del año 2750 a.C. ya en el año 4000 a.C. se le menciona en los jeroglíficos, que dicen que él que "libera multitudes". Esto es exacto, ya que cuando un pescador toca a un pez gato capturado en su red y recibe una descarga eléctrica, suelta la red y todos los peces recobran inmediatamente su libertad.
El pez gato eléctrico está bastante aislado en la clasificación y él sólo es un familia.
El órganos eléctrico del pez gato está formado por una capa de músculos que se encuentra inmediatamente debajo de la epidermis y que cubre todo el cuerpo y parte de la cola. Este órgano se divide en compartimentos que contienen unas placas galvánicas, recibiendo cada una de ellas, las ramificaciones de una importante célula situada en la espina dorsal.
El polo positivo de este órgano está situado cerca de la cabeza, y el polo negativo en la cola. Un pez gato adulto de gran tamaño puede producir descargas de hasta 350 voltios. Varias descargas de menor intensidad siguen generalmente a la primera.
Los peces que viven en el mismo acuario se quedan aturdidos, cuando no mueren por estas descargas, de las que se sirve el pez gato eléctrico como medio de disuasión, cuando se siente amenazado por un enemigo.
También las utiliza para dominar mejor a los peces de los que se alimenta.
Desde el siglo XI, los árabes utilizaron este extraño pez para calmar los dolores. Lo aplicaban en las partes doloridas del cuerpo del paciente.
Grupo: Vertebrados
Clase: Osteictios
Orden: Siluriformes
Familia: Malapterúridos
Género y especie: Malapterurus electricus (pez gato eléctrico)
jueves, 27 de agosto de 2015
Lazzaro Spallanzani
El naturalista italiano Lazzaro Spallanzani, nació en Escandiano el 12 de enero de 1729. Estudió en el colegio de los jesuitas de Regio y años después se matriculó en la facultad de Derecho de la Universidad de Bolonia, siguiendo los deseos de su padre, que era abogado.
Pero un amigo de la familia logró convencer a su padre de la auténtica vocación científica de Lazzaro y finalmente pudo inscribirse en la Facultad de Ciencias.
Las dotes intelectuales de Spallanzani eran tan vastas y diversas que sus maestros temían que las malgastase. A los 25 años había traducido obras de poetas clásicos, redactado un Tratado sobre Mecánica y discutía con facilidad sobre complejas cuestiones matemáticas.
Antes de los 30 era profesor de Lógica, Metafísica y griego en la Universidad de Regio, y se había ordenado sacerdote, aunque siempre mostró mayor afición por la biología experimental que por los estudios teológicos.
Posteriormente fue profesor de Física en la Universidad de Módena y de Historia Natural en la de Pavía, cuyo museo mineralógico dirigió y enriqueció con ejemplares hallados en sus numerosas excursiones.
Investigó la fecundación natural y artificial
Spallanzani investigó la fecundación natural y artificial. Demostró que la presencia de semen es indispensable para la concepción de un nuevo ser, aunque no supo reconocer la importancia de los espermatozoides, de los que se pensaba que eran parásitos. Logró la inseminación artificial de una perra y de varios animales inferiores con sus meticulosos experimentos.
También estudió la regeneración de las distintas partes del cuerpo en anfibios y reptiles. Descubrió que se produce con más facilidad en los animales inferiores, aunque no pudo explicar por qué no sucedía lo mismo en los superiores.
Estudió la circulación y el aparato respiratorio de los animales de sangre fría y caliente y demostró que tejidos vivos arrancados a un animal sacrificado, absorbían el oxígeno y despedían el óxido de carbono.
Investigó el proceso de digestión mediante experimentos realizados en su propio cuerpo que casi le cuestan la vida. Basándose en los resultados obtenidos con animales, del francés Réaumur, Spallanzani ingirió esponjas y pequeñas bolsitas de tela rellenas de pan o carne.
Al cabo de una horas vomitó y analizó el contenido del estómago: los alimentos se habían disgregado a pesar de no haber estado en contacto con las paredes del estómago.
Spallanzani dedujo que la sustancia digestiva en la digestión era el jugo gástrico. Utilizando el recogido por las esponjas, demostró que el alimento se desintegra de la misma manera fuera del cuerpo.
La vida de los organismos unicelularesSpallanzani confirmó que los organismos unicelulares son seres vivos y refutó la generación espontánea, anticipándose a Pasteur. El sacerdote católico inglés Needham había hecho una serie de experimentos en favor de esa teoría.
Calentó caldo de carne en diversos recipientes que luego selló. Al cabo de unos días, el alimento había sido descompuesto por los microorganismos, por lo que Neddham sostenía que la vida surgía de la materia no viviente.
En 1769, Spallanzani repitió los experimentos pero prolongando el periodo de calentamiento y sellando con más cuidado los recipientes. De esta forma, pudo demostrar que el caldo se mantenía intacto mientras no estuviera en contacto con el aire.
La disputa entre ambos sacerdotes fue larga y enconada. El inglés afirmaba que las cocciones del italiano destruían el espíritu vital mientras que Spallanzani demostró que lo único destruido por la cocción eran las bacterias, y no un principio de vida de índole místico.
Estudió la médula ósea en lagartos y la atrofia de la visión en los murciélagos. No le faltaron enemigos que intentaron desacreditarle acusándole de apropiarse de los fondos del museo de la Universidad de Pavía, pero fueron ellos los únicos condenados.
Federico el Grande le hizo miembro de la Academia de Berlín. Entre sus obras destacan 'Ensayo sobre la reproducción animal', 'Opúsculos de física animal y vegetal' y 'Memoria sobre la respiración'.
A principios de 1799, Spallanzani sufrió un ataque de apoplejía. Poco después, el 1 de febrero de 1799, fallecía en Pavía. Gracias a sus investigaciones en el campo de la bacteriología se le conoce como 'Biólogo de biólogos'.
Pero un amigo de la familia logró convencer a su padre de la auténtica vocación científica de Lazzaro y finalmente pudo inscribirse en la Facultad de Ciencias.
Las dotes intelectuales de Spallanzani eran tan vastas y diversas que sus maestros temían que las malgastase. A los 25 años había traducido obras de poetas clásicos, redactado un Tratado sobre Mecánica y discutía con facilidad sobre complejas cuestiones matemáticas.
Antes de los 30 era profesor de Lógica, Metafísica y griego en la Universidad de Regio, y se había ordenado sacerdote, aunque siempre mostró mayor afición por la biología experimental que por los estudios teológicos.
Posteriormente fue profesor de Física en la Universidad de Módena y de Historia Natural en la de Pavía, cuyo museo mineralógico dirigió y enriqueció con ejemplares hallados en sus numerosas excursiones.
Investigó la fecundación natural y artificial
Spallanzani investigó la fecundación natural y artificial. Demostró que la presencia de semen es indispensable para la concepción de un nuevo ser, aunque no supo reconocer la importancia de los espermatozoides, de los que se pensaba que eran parásitos. Logró la inseminación artificial de una perra y de varios animales inferiores con sus meticulosos experimentos.
También estudió la regeneración de las distintas partes del cuerpo en anfibios y reptiles. Descubrió que se produce con más facilidad en los animales inferiores, aunque no pudo explicar por qué no sucedía lo mismo en los superiores.
Estudió la circulación y el aparato respiratorio de los animales de sangre fría y caliente y demostró que tejidos vivos arrancados a un animal sacrificado, absorbían el oxígeno y despedían el óxido de carbono.
Investigó el proceso de digestión mediante experimentos realizados en su propio cuerpo que casi le cuestan la vida. Basándose en los resultados obtenidos con animales, del francés Réaumur, Spallanzani ingirió esponjas y pequeñas bolsitas de tela rellenas de pan o carne.
Al cabo de una horas vomitó y analizó el contenido del estómago: los alimentos se habían disgregado a pesar de no haber estado en contacto con las paredes del estómago.
Spallanzani dedujo que la sustancia digestiva en la digestión era el jugo gástrico. Utilizando el recogido por las esponjas, demostró que el alimento se desintegra de la misma manera fuera del cuerpo.
La vida de los organismos unicelularesSpallanzani confirmó que los organismos unicelulares son seres vivos y refutó la generación espontánea, anticipándose a Pasteur. El sacerdote católico inglés Needham había hecho una serie de experimentos en favor de esa teoría.
Calentó caldo de carne en diversos recipientes que luego selló. Al cabo de unos días, el alimento había sido descompuesto por los microorganismos, por lo que Neddham sostenía que la vida surgía de la materia no viviente.
En 1769, Spallanzani repitió los experimentos pero prolongando el periodo de calentamiento y sellando con más cuidado los recipientes. De esta forma, pudo demostrar que el caldo se mantenía intacto mientras no estuviera en contacto con el aire.
La disputa entre ambos sacerdotes fue larga y enconada. El inglés afirmaba que las cocciones del italiano destruían el espíritu vital mientras que Spallanzani demostró que lo único destruido por la cocción eran las bacterias, y no un principio de vida de índole místico.
Estudió la médula ósea en lagartos y la atrofia de la visión en los murciélagos. No le faltaron enemigos que intentaron desacreditarle acusándole de apropiarse de los fondos del museo de la Universidad de Pavía, pero fueron ellos los únicos condenados.
Federico el Grande le hizo miembro de la Academia de Berlín. Entre sus obras destacan 'Ensayo sobre la reproducción animal', 'Opúsculos de física animal y vegetal' y 'Memoria sobre la respiración'.
A principios de 1799, Spallanzani sufrió un ataque de apoplejía. Poco después, el 1 de febrero de 1799, fallecía en Pavía. Gracias a sus investigaciones en el campo de la bacteriología se le conoce como 'Biólogo de biólogos'.
miércoles, 26 de agosto de 2015
Practicas de laboratorio
El siguiente archivo contiene todas las prácticas que se desarrollarán en el curso, sin embargo sólo son las guías que se desarrollarán en cada sesión por lo que durante cada clase se explicarán los métodos y caracteristicas de cada práctica. Conviene que por lo menos se tenga una copia por equipo para poder desarrollarla; para el caso de la primera práctica pueden imprimir el reglamento por "alumno"
martes, 25 de agosto de 2015
La visión en los animales (II): adaptación a la luz y oscuridad
Nos vamos a concentrar en los ojos simples de los vertebrados, y dejaremos los ojos compuestos de insectos, arácnidos, etc, para otro artículo.
Primero hablaremos de las diferencias estructurales que han ido adquiriendo los ojos gracias a la evolución, adaptándose al entorno diurno o nocturno. Luego veremos cómo se adapta cada ojo dinámicamente a los cambios de luz.
Existen dos tipos de receptores en la retina: conos y bastones. Los conos permiten la visión de colores y suelen ofrecer mejor resolución de imagen, pero necesitan más luz para funcionar. Por el contrario, los bastones funcionan bien con poca luz, pero no ofrecen información de colores, y normalmente dan una resolución de imagen más pobre. Los ojos diurnos poseen ambos tipos de receptores, pero en la zona central de la retina se concentran los conos.
Como tenemos abundancia de luz no necesitamos tener una retina (y por tanto un ojo) muy grande; la luz llegará correctamente.
Por otra parte, tenemos que recoger el máximo número posible de rayos de luz. Como hay muy poca, nos interesa que sean ojos grandes. Así, los animales nocturnos tienen los ojos proporcionalmente más grandes con relación al tamaño del cráneo. Un ejemplo de ojos proporcionalmente grandes: este pequeño primate llamado lemur:
Aunque quede quizás más claro si contemplamos su cráneo:
Vemos que la cuenca del ojo (que se llama órbita) ocupa un espacio muy grande en comparación con otras estructuras (el hueco que hay para ambos ojos es de un tamaño similar al que hay para el cerebro). Hay otros muchos ejemplo, como la lechuza:
En resumen: ojos grandes, con córneas grandes y pupilas grandes.
Los ojos brillantes de muchos animales se deben a este tapetum lucidum:
Y eso hace que en su fondo de ojo, en vez del anaranjado habitual que tiene el ser humano, tengan colores más vivos y reflectantes. En el caso del gato podemos apreciar esa tonalidad amarilla y verde:
Aquí hago un inciso: El reflejo de los animales con tapetum lucidum no tiene nada que ver con el reflejo rojo que tiene el ser humano en las fotografías con flash:
Nosotros no tenemos tapetum. Ese reflejo rojo sólo lo vemos en las fotografías y en otros mecanismos artificiales de visión. Ante una luz normal y a simple vista, la pupila humana es negra y no roja. Al contrario que los animales que tienen tapetum, que depende de la iluminación (sobre todo con iluminación directa y alto contraste de luz), el reflejo brilla a simple vista:
Primero hablaremos de las diferencias estructurales que han ido adquiriendo los ojos gracias a la evolución, adaptándose al entorno diurno o nocturno. Luego veremos cómo se adapta cada ojo dinámicamente a los cambios de luz.
Ojos diurnosEsto nos sonará más, porque el ser humano posee ojos diurnos.
Existen dos tipos de receptores en la retina: conos y bastones. Los conos permiten la visión de colores y suelen ofrecer mejor resolución de imagen, pero necesitan más luz para funcionar. Por el contrario, los bastones funcionan bien con poca luz, pero no ofrecen información de colores, y normalmente dan una resolución de imagen más pobre. Los ojos diurnos poseen ambos tipos de receptores, pero en la zona central de la retina se concentran los conos.
Con esta abundancia (relativa) de conos, sacrificamos sensibilidad de luz (o sea, funcionaremos peor en la oscuridad) a cambio de tener una resolución de imagen mejor.
Como tenemos abundancia de luz no necesitamos tener una retina (y por tanto un ojo) muy grande; la luz llegará correctamente.
Ojos nocturnosAhora veremos las diferencias que más nos llamarán la atención.
Primeramente, con luz escasa, los conos apenas funcionan, así que estos animales tienen muy pocos conos, o simplemente ninguno. La práctica totalidad de la retina está tapizada de bastones, una célula que es capaz de estimularse con muy poca luz. El sistema neuronal de la retina está adaptado a percibir el máximo número de estímulos aun sacrificando resolución de imagen, así que se suelen concentrar varios bastones que dependen de una sola fibra nerviosa. Es decir, queda un “pixel más grande”, perdemos resolución, pero ese pixel se activará con muy poca luz, sólo con que uno de los bastones del grupo sea estimulado.
Por otra parte, tenemos que recoger el máximo número posible de rayos de luz. Como hay muy poca, nos interesa que sean ojos grandes. Así, los animales nocturnos tienen los ojos proporcionalmente más grandes con relación al tamaño del cráneo. Un ejemplo de ojos proporcionalmente grandes: este pequeño primate llamado lemur:
Aunque quede quizás más claro si contemplamos su cráneo:
Vemos que la cuenca del ojo (que se llama órbita) ocupa un espacio muy grande en comparación con otras estructuras (el hueco que hay para ambos ojos es de un tamaño similar al que hay para el cerebro). Hay otros muchos ejemplo, como la lechuza:
En resumen: ojos grandes, con córneas grandes y pupilas grandes.
Tapetum lucidum
Este término latino hace referencia a una estructura de la que carecemos los humanos, pero realmente es bastante familiar ya que los perros y los gatos lo tienen, y le dan ese reflejo característico al fondo de ojo. Consiste en un tejido reflectante en la parte posterior de la retina. Así, los rayos de luz que atraviesan la retina sin estimular los receptores se reflejan en el tapetum y vuelven a atravesar la retina, de forma que existe el doble de posibilidades de que los receptores se vean estimulados.
Este término latino hace referencia a una estructura de la que carecemos los humanos, pero realmente es bastante familiar ya que los perros y los gatos lo tienen, y le dan ese reflejo característico al fondo de ojo. Consiste en un tejido reflectante en la parte posterior de la retina. Así, los rayos de luz que atraviesan la retina sin estimular los receptores se reflejan en el tapetum y vuelven a atravesar la retina, de forma que existe el doble de posibilidades de que los receptores se vean estimulados.
Los ojos brillantes de muchos animales se deben a este tapetum lucidum:
Y eso hace que en su fondo de ojo, en vez del anaranjado habitual que tiene el ser humano, tengan colores más vivos y reflectantes. En el caso del gato podemos apreciar esa tonalidad amarilla y verde:
Aquí hago un inciso: El reflejo de los animales con tapetum lucidum no tiene nada que ver con el reflejo rojo que tiene el ser humano en las fotografías con flash:
Nosotros no tenemos tapetum. Ese reflejo rojo sólo lo vemos en las fotografías y en otros mecanismos artificiales de visión. Ante una luz normal y a simple vista, la pupila humana es negra y no roja. Al contrario que los animales que tienen tapetum, que depende de la iluminación (sobre todo con iluminación directa y alto contraste de luz), el reflejo brilla a simple vista:
Dipticos
Generación 2015-2016 aquí pueden encontrar los dípticos de las materias de biología y temas selectos, su misión, si deciden aceptarla, es descargarlos, imprimirlos, y pegarlos en su cuaderno para que lo tengan presente todo el año, recuerden que se revisarán en los primeros días de clase.
Biología Dale click al botón |
Temas Selectos Dale click al botón |
lunes, 24 de agosto de 2015
Primera clase
Bienvenidos generación 2015-2016, como primera actividades recuerden revisar la clase del día de hoy y publicar un comentario sobre los objetivos planteados del curso de biología y temas selectos en el foro, comencemos!!!
viernes, 21 de agosto de 2015
Crónica de un desastre anunciado (2)
Daños del petróleo en el mar
¿Qué daño causaron los 4.9 millones de barriles de petróleo derramados?
Según algunos titulares en la prensa, lo más afectado por este desastre fueron las empresas que participaron en la perforación del pozo, cuyas acciones se desplomaron (aunque algunas ya se recuperaron). No obstante, la conciencia mundial carga como una culpa propia el grave daño ocasionado al ecosistema. Entre las plantas, los animales, las bacterias y los hongos que habitan en el Golfo de México existe una interdependencia de energía y materiales, y debido a esto, el equilibrio del ecosistema es muy frágil.
La televisión nos muestra dramáticas escenas de tortugas muertas y pelícanos cubiertos de petróleo. Sin embargo, la mayor parte del ecosistema del golfo no se ve porque habita en las profundidades del mar. En la zona del derrame viven 1 728 especies marinas. Aún no se ha podido cuantificar el daño. Un equipo de biólogos y ecologistas dirigidos por Larry Mac- Kinney, de la Universidad Texas A&M se ha desplazado a la zona del desastre para realizar un cálculo de los daños. Por lo pronto sólo se tiene como referencia los ocasionados por los derrames del buque petrolero Exxon-Valdez en 1989 y el pozo Ixtoc I en aguas mexicanas en 1979.
Se sabe que el petróleo disminuirá las tasas de reproducción y aumentará las de enfermedades y mortalidad en todos los organismos marinos; sin embargo, cinco especies de animales grandes preocupan en especial por su importancia en el equilibrio del ecosistema: el atún de aleta azul, que es la especie de mayor importancia comercial, la tortuga golfina, los cachalotes, el tiburón ballena y el tarpón.
El petróleo obstruye las branquias de los peces y les dificulta o impide la respiración; en las tortugas, el contacto, la inhalación y la ingestión de los hidrocarburos produce quemaduras en los sistemas digestivo, respiratorio y reproductor. El petróleo deforma a las crías de todos ellos y el plancton, del cual se alimentan, se vuelve tóxico y las mata. El pronóstico es muy grave.
Mientras tanto en la costa…
Los habitantes de los estados de Luisiana, Misisipi, Alabama y Florida vieron con angustia llegar la nata de petróleo a sus playas a mediados de mayo. Lo más vulnerable en este caso son los humedales, pantanos y manglares de la costa. Una vez que el petróleo llega ahí, el daño es irreversible para la gran biodiversidad que albergan. Para evitarlo había que impedir que el petróleo llegara a la superficie del mar, pues una vez ahí, el oleaje produce una emulsión, que es una mezcla homogénea de agua y petróleo muy difícil de limpiar.
Por primera vez en este tipo de desastres, se aplicó una tecnología conocida comodispersión con tensoactivos a profundidad. Unos robots submarinos descienden hasta la fuente de petróleo con el fin de inyectar un compuesto formado por una molécula con las siguientes características: por uno de sus extremos tiene afinidad con el agua y por el otro con el petróleo. De esta manera, forma microgotas de agua-tensoactivo- petróleo que se dispersan y tienden a irse al fondo, donde los microorganismos las consumen.
Según estudios previos, el dispersante no daña ni a los peces ni a los crustáceos comestibles. Sin embargo, las investigaciones recientes han encontrado que el exceso de dispersante que se aplicó afecta a los corales, impidiendo que las larvas flotantes de estos animales se adhieran a la colonia para formar los arrecifes. Aunque esto parece ser un daño menor, hay que recordar que las colonias de coral constan de millones de pólipos de unos milímetros de diámetro que fijan en sus tejidos el calcio disuelto en el mar y forman la estructura rígida del arrecife, que es el hogar de más de 500 especies diferentes que ahí encuentran alimento y protección contra los depredadores. El dispersante desvistió a un santo para vestir a otro.
El petróleo derramado
El 4 de agosto los científicos de la Oficina de la Atmósfera y el Océano de Estados Unidos (NOAA, por sus siglas en inglés), después de realizar análisis exhaustivos en toda la región afectada, emitieron un comunicado sobre el balance del petróleo alrededor de la zona de perforación Macondo. Calculan que un 17% del petróleo derramado fue recuperado; se quemó el 5%; sólo un 3% fue retirado por las espumaderas y el 25% se evaporó o se disolvió. El 16% se dispersó por fenómenos naturales como vientos y mareas y el 8% mediante dispersión química. Queda aún un 26% de petróleo residual que se espera sea biodegradado por bacterias. Sin embargo, a finales del mes de junio, Richard Camilli y Christopher Reddy, científicos del Instituto Oceanográfico de Woods Hole, realizaron una expedición a la zona para evaluar los daños y se muestran menos optimistas. En una exploración con robots submarinos, encontraron una estela de petróleo de 35 kilómetros de longitud y un espesor de 200 metros a una profundidad de 1 100 metros.
El análisis de las muestras tomadas de esta enorme franja de petróleo mostró que son hidrocarburos que no han sido contabilizados por la NOAA. La proporción de oxígeno disuelto en estas muestras no está por debajo de lo normal. Esto indica que hasta esa fecha no ha habido biodegradación, pues las bacterias que degradan el petróleo consumen gran cantidad de oxígeno. Según los científicos, este proceso puede tardar aún muchos meses. Las bacterias que degradan el petróleo metabolizan los hidrocarburos de cadena lineal de hasta 30 átomos de carbono con mayor facilidad que los compuestos aromáticos y los de cadenas ramificadas. Las bacterias más eficientes son de los géneros Bacillus y Marinococcus. Sin embargo, la biodegradación en zonas profundas es un arma de dos filos porque, si bien elimina los hidrocarburos que son tóxicos para el ecosistema, consumen tal cantidad de oxígeno que pueden dejar una zona muerta por la falta de este gas.
Epílogo
Después de la pesadilla del derrame en Macondo, pensaríamos que la exploración en aguas profundas se suspendería hasta que se dominara la tecnología para evitar accidentes como éste, pero no es así. Al agotarse las reservas en los yacimientos en tierra y los de aguas someras (menos de 400 metros de profundidad), el único recurso —y además económicamente muy productivo para las economías de los países que se pueden dar el lujo de hacer la exploración— está en aguas profundas, no obstante los riesgos. Según el Servicio para la Administración de Minerales de Estados Unidos, en el Golfo de México actualmente hay 31 perforaciones activas, mientras que en 1992 sólo había tres.
Las alternativas de energía limpia son muchas, pero aún están muy lejos de abastecer al mundo. Mientras más avanzado es el desarrollo de un país, mayor es su consumo de energía: hay más industrias, así como más gente con automóviles y aparatos que requieren energía.
En la actualidad nuestro planeta enfrenta dos problemas enormes que requieren solución urgente: la necesidad de fuentes de energía y el calentamiento global. El interés de las compañías petroleras del mundo es extraer enormes cantidades de petróleo. La combustión de éste producirá una cantidad de dióxido de carbono que desencadenará un calentamiento irreversible del planeta. Sólo gestiones políticas de gran envergadura y una conciencia mundial sobre el consumo exagerado de energía podrían desviar los recursos destinados a extraer petróleo hacia la investigación y desarrollo de fuentes de energía limpias y renovables.
29 de septiembre, 2010
Un comité nombrado por la Academia Nacional de Ingenieros de Estados Unidos realizó un estudio de los procedimientos y acciones realizados antes y durante el derrame para conocer sus causas. Los resultados revelan que hubo error humano: los datos de pruebas de presión en la perforación fueron erróneamente interpretados por el personal de la plataforma. En tres ocasiones, los datos de los instrumentos que vigilan el pozo en tiempo real indicaron que la presión había aumentado cuando tendría que haber disminuido. El reporte revela que no se tomaron en cuenta factores como la fatiga de los trabajadores por jornadas excesivas de trabajo. Hace también mención de una cultura de seguridad deficiente. Lo demás ya es historia.
¿Qué daño causaron los 4.9 millones de barriles de petróleo derramados?
Según algunos titulares en la prensa, lo más afectado por este desastre fueron las empresas que participaron en la perforación del pozo, cuyas acciones se desplomaron (aunque algunas ya se recuperaron). No obstante, la conciencia mundial carga como una culpa propia el grave daño ocasionado al ecosistema. Entre las plantas, los animales, las bacterias y los hongos que habitan en el Golfo de México existe una interdependencia de energía y materiales, y debido a esto, el equilibrio del ecosistema es muy frágil.
La televisión nos muestra dramáticas escenas de tortugas muertas y pelícanos cubiertos de petróleo. Sin embargo, la mayor parte del ecosistema del golfo no se ve porque habita en las profundidades del mar. En la zona del derrame viven 1 728 especies marinas. Aún no se ha podido cuantificar el daño. Un equipo de biólogos y ecologistas dirigidos por Larry Mac- Kinney, de la Universidad Texas A&M se ha desplazado a la zona del desastre para realizar un cálculo de los daños. Por lo pronto sólo se tiene como referencia los ocasionados por los derrames del buque petrolero Exxon-Valdez en 1989 y el pozo Ixtoc I en aguas mexicanas en 1979.
Se sabe que el petróleo disminuirá las tasas de reproducción y aumentará las de enfermedades y mortalidad en todos los organismos marinos; sin embargo, cinco especies de animales grandes preocupan en especial por su importancia en el equilibrio del ecosistema: el atún de aleta azul, que es la especie de mayor importancia comercial, la tortuga golfina, los cachalotes, el tiburón ballena y el tarpón.
El petróleo obstruye las branquias de los peces y les dificulta o impide la respiración; en las tortugas, el contacto, la inhalación y la ingestión de los hidrocarburos produce quemaduras en los sistemas digestivo, respiratorio y reproductor. El petróleo deforma a las crías de todos ellos y el plancton, del cual se alimentan, se vuelve tóxico y las mata. El pronóstico es muy grave.
Mientras tanto en la costa…
Los habitantes de los estados de Luisiana, Misisipi, Alabama y Florida vieron con angustia llegar la nata de petróleo a sus playas a mediados de mayo. Lo más vulnerable en este caso son los humedales, pantanos y manglares de la costa. Una vez que el petróleo llega ahí, el daño es irreversible para la gran biodiversidad que albergan. Para evitarlo había que impedir que el petróleo llegara a la superficie del mar, pues una vez ahí, el oleaje produce una emulsión, que es una mezcla homogénea de agua y petróleo muy difícil de limpiar.
Por primera vez en este tipo de desastres, se aplicó una tecnología conocida comodispersión con tensoactivos a profundidad. Unos robots submarinos descienden hasta la fuente de petróleo con el fin de inyectar un compuesto formado por una molécula con las siguientes características: por uno de sus extremos tiene afinidad con el agua y por el otro con el petróleo. De esta manera, forma microgotas de agua-tensoactivo- petróleo que se dispersan y tienden a irse al fondo, donde los microorganismos las consumen.
Según estudios previos, el dispersante no daña ni a los peces ni a los crustáceos comestibles. Sin embargo, las investigaciones recientes han encontrado que el exceso de dispersante que se aplicó afecta a los corales, impidiendo que las larvas flotantes de estos animales se adhieran a la colonia para formar los arrecifes. Aunque esto parece ser un daño menor, hay que recordar que las colonias de coral constan de millones de pólipos de unos milímetros de diámetro que fijan en sus tejidos el calcio disuelto en el mar y forman la estructura rígida del arrecife, que es el hogar de más de 500 especies diferentes que ahí encuentran alimento y protección contra los depredadores. El dispersante desvistió a un santo para vestir a otro.
El petróleo derramado
El 4 de agosto los científicos de la Oficina de la Atmósfera y el Océano de Estados Unidos (NOAA, por sus siglas en inglés), después de realizar análisis exhaustivos en toda la región afectada, emitieron un comunicado sobre el balance del petróleo alrededor de la zona de perforación Macondo. Calculan que un 17% del petróleo derramado fue recuperado; se quemó el 5%; sólo un 3% fue retirado por las espumaderas y el 25% se evaporó o se disolvió. El 16% se dispersó por fenómenos naturales como vientos y mareas y el 8% mediante dispersión química. Queda aún un 26% de petróleo residual que se espera sea biodegradado por bacterias. Sin embargo, a finales del mes de junio, Richard Camilli y Christopher Reddy, científicos del Instituto Oceanográfico de Woods Hole, realizaron una expedición a la zona para evaluar los daños y se muestran menos optimistas. En una exploración con robots submarinos, encontraron una estela de petróleo de 35 kilómetros de longitud y un espesor de 200 metros a una profundidad de 1 100 metros.
El análisis de las muestras tomadas de esta enorme franja de petróleo mostró que son hidrocarburos que no han sido contabilizados por la NOAA. La proporción de oxígeno disuelto en estas muestras no está por debajo de lo normal. Esto indica que hasta esa fecha no ha habido biodegradación, pues las bacterias que degradan el petróleo consumen gran cantidad de oxígeno. Según los científicos, este proceso puede tardar aún muchos meses. Las bacterias que degradan el petróleo metabolizan los hidrocarburos de cadena lineal de hasta 30 átomos de carbono con mayor facilidad que los compuestos aromáticos y los de cadenas ramificadas. Las bacterias más eficientes son de los géneros Bacillus y Marinococcus. Sin embargo, la biodegradación en zonas profundas es un arma de dos filos porque, si bien elimina los hidrocarburos que son tóxicos para el ecosistema, consumen tal cantidad de oxígeno que pueden dejar una zona muerta por la falta de este gas.
Epílogo
Después de la pesadilla del derrame en Macondo, pensaríamos que la exploración en aguas profundas se suspendería hasta que se dominara la tecnología para evitar accidentes como éste, pero no es así. Al agotarse las reservas en los yacimientos en tierra y los de aguas someras (menos de 400 metros de profundidad), el único recurso —y además económicamente muy productivo para las economías de los países que se pueden dar el lujo de hacer la exploración— está en aguas profundas, no obstante los riesgos. Según el Servicio para la Administración de Minerales de Estados Unidos, en el Golfo de México actualmente hay 31 perforaciones activas, mientras que en 1992 sólo había tres.
Las alternativas de energía limpia son muchas, pero aún están muy lejos de abastecer al mundo. Mientras más avanzado es el desarrollo de un país, mayor es su consumo de energía: hay más industrias, así como más gente con automóviles y aparatos que requieren energía.
En la actualidad nuestro planeta enfrenta dos problemas enormes que requieren solución urgente: la necesidad de fuentes de energía y el calentamiento global. El interés de las compañías petroleras del mundo es extraer enormes cantidades de petróleo. La combustión de éste producirá una cantidad de dióxido de carbono que desencadenará un calentamiento irreversible del planeta. Sólo gestiones políticas de gran envergadura y una conciencia mundial sobre el consumo exagerado de energía podrían desviar los recursos destinados a extraer petróleo hacia la investigación y desarrollo de fuentes de energía limpias y renovables.
29 de septiembre, 2010
Un comité nombrado por la Academia Nacional de Ingenieros de Estados Unidos realizó un estudio de los procedimientos y acciones realizados antes y durante el derrame para conocer sus causas. Los resultados revelan que hubo error humano: los datos de pruebas de presión en la perforación fueron erróneamente interpretados por el personal de la plataforma. En tres ocasiones, los datos de los instrumentos que vigilan el pozo en tiempo real indicaron que la presión había aumentado cuando tendría que haber disminuido. El reporte revela que no se tomaron en cuenta factores como la fatiga de los trabajadores por jornadas excesivas de trabajo. Hace también mención de una cultura de seguridad deficiente. Lo demás ya es historia.
martes, 18 de agosto de 2015
La visión en los animales (I): Halcones
¿Es cierto que las águilas y los halcones tienen tan buena visión, o es sólo una leyenda urbana?. Pues es totalmente cierto, su agudeza visual es superior a la del ser humano (entre dos y cuatro veces más, según la especie); de hecho son los animales con la mejor calidad de imagen de todos. Eso quiere decir que presentan una gran resolución de la parte central de la imagen. Y que cuando sobrevuelan una presa, la ven con mucha más nitidez que si nosotros estuviéramos mirando a esa distancia. ¿Cómo lo consiguen?
Pongamos unos números: en el ojo humano, la parte central de la retina (fóvea) tiene unos 150 mil o 200 mil receptores de luz. La fóvea de una rapaz, con un tamaño parecido, hay millón y medio de células receptoras. Un incremento muy importante. Tanta densidad de receptores trae unas importantes “necesidades logísticas”. Son células muy “caras” desde el punto de vista energético, necesitan mucho aporte sanguíneo y la anatomía del ojo humano no podría soportar tanta densidad de receptores.
A este efecto, estas aves poseen un tejido llamado pecten, una estructura vascular en forma de peine que se ancla en la retina y la pared del ojo y se proyecta hacia el interior. Además de función “alimenticia”, tiene otras funciones que favorecen la gran resolución de imagen de estos animales.
Ya que es más fácil ver el pecten (que no hace falta microscopio) que averiguar la densidad de conos, podemos afirmar que las aves con el pecten más desarrollado tienen mejor visión.
La “superretina”
La retina es el fino tejido de la parte posterior del ojo que recoge la imagen. Hay unos receptores de luz que convierten la imagen proyectada en estímulos nerviosos. Cuanto más juntos están estos receptores, más pequeños son los “pixeles” de la imagen. Por tanto, cuantos más receptores hay en ese área determinada, mejor. Y así, de esa densidad de receptores se deriva (en condiciones ópticas óptimas) la resolución de imagen.
La retina es el fino tejido de la parte posterior del ojo que recoge la imagen. Hay unos receptores de luz que convierten la imagen proyectada en estímulos nerviosos. Cuanto más juntos están estos receptores, más pequeños son los “pixeles” de la imagen. Por tanto, cuantos más receptores hay en ese área determinada, mejor. Y así, de esa densidad de receptores se deriva (en condiciones ópticas óptimas) la resolución de imagen.
Pongamos unos números: en el ojo humano, la parte central de la retina (fóvea) tiene unos 150 mil o 200 mil receptores de luz. La fóvea de una rapaz, con un tamaño parecido, hay millón y medio de células receptoras. Un incremento muy importante. Tanta densidad de receptores trae unas importantes “necesidades logísticas”. Son células muy “caras” desde el punto de vista energético, necesitan mucho aporte sanguíneo y la anatomía del ojo humano no podría soportar tanta densidad de receptores.
A este efecto, estas aves poseen un tejido llamado pecten, una estructura vascular en forma de peine que se ancla en la retina y la pared del ojo y se proyecta hacia el interior. Además de función “alimenticia”, tiene otras funciones que favorecen la gran resolución de imagen de estos animales.
Ya que es más fácil ver el pecten (que no hace falta microscopio) que averiguar la densidad de conos, podemos afirmar que las aves con el pecten más desarrollado tienen mejor visión.
Un aparato óptico excepcional
Para que la imagen se proyecte en la retina, las lentes del ojo tienen que conseguir una imagen lo más nítida posible. Por muy buena que sea la retina, si la imagen llega borrosa, poco podremos hacer. Estas rapaces tienen un sistema excepcional de enfoque. Y no sólo por la precisión de las lentes: hay una característica especial de la que la mayoría de los demás animales carecemos. Para el enfoque de la retina periférica, el sistema funciona igual: la córnea y el cristalino son las lentes encargadas de hacer converger la imagen en la retina. Pero justo en la parte central (en la fóvea), las rapaces poseen una “lente nueva”. En su caso, la separación entre el vítreo (el gel transparente que rellena el ojo) y la retina tiene cierto poder de refracción. Al resto de animales no nos pasa: la interfase entre vítreo y retina no tienen importancia en la refracción, y la luz lo atraviesa sin modificación. Pero en estas aves, esta separación sí que induce una refracción, actuando como lente negativa y magnificando la imagen. Es decir, es como si tuvieran, justo delante de la fóvea, un “zoom”, un sistema que magnifica la imagen (que sería 1,45 veces el tamaño real).
Para que la imagen se proyecte en la retina, las lentes del ojo tienen que conseguir una imagen lo más nítida posible. Por muy buena que sea la retina, si la imagen llega borrosa, poco podremos hacer. Estas rapaces tienen un sistema excepcional de enfoque. Y no sólo por la precisión de las lentes: hay una característica especial de la que la mayoría de los demás animales carecemos. Para el enfoque de la retina periférica, el sistema funciona igual: la córnea y el cristalino son las lentes encargadas de hacer converger la imagen en la retina. Pero justo en la parte central (en la fóvea), las rapaces poseen una “lente nueva”. En su caso, la separación entre el vítreo (el gel transparente que rellena el ojo) y la retina tiene cierto poder de refracción. Al resto de animales no nos pasa: la interfase entre vítreo y retina no tienen importancia en la refracción, y la luz lo atraviesa sin modificación. Pero en estas aves, esta separación sí que induce una refracción, actuando como lente negativa y magnificando la imagen. Es decir, es como si tuvieran, justo delante de la fóvea, un “zoom”, un sistema que magnifica la imagen (que sería 1,45 veces el tamaño real).
…. y más cosas
La visión de estos animales es apasionante. De los sistemas que le dan mejor resolución de imagen, sólo he puesto los dos más importantes, pero hay más:
- La pupila juega un importante papel. Su pupila es más grande y entra más luz. Lo que en otros animales es una desventaja (porque entra luz por la córnea periférica, peor enfocada) en las rapaces significa mejor contraste.
- Además de la fóvea central, con la que tienen mejor resolución de imagen, estos ojos tienen una segunda fóvea, para la visión periférica. Algo totalmente inimaginable en el sistema visual humano: dos fóveas en cada ojo.
La visión de estos animales es apasionante. De los sistemas que le dan mejor resolución de imagen, sólo he puesto los dos más importantes, pero hay más:
- La pupila juega un importante papel. Su pupila es más grande y entra más luz. Lo que en otros animales es una desventaja (porque entra luz por la córnea periférica, peor enfocada) en las rapaces significa mejor contraste.
- Además de la fóvea central, con la que tienen mejor resolución de imagen, estos ojos tienen una segunda fóvea, para la visión periférica. Algo totalmente inimaginable en el sistema visual humano: dos fóveas en cada ojo.
Exoplanetas (2)
El satélite Kepler
Si bien la técnica más utilizada para detectar exoplanetas era buscar el leve bamboleo inducido en su estrella, otros métodos se fueron desarrollando con el tiempo. En 1999, se confirmó la existencia de un exoplaneta girando alrededor de la estrella HD 209458. El exoplaneta ya se había detectado con el método del bamboleo (conocido como método de velocidad radial). La confirmación por otro método fue posible porque, por un golpe de suerte, su órbita está orientada de tal manera que desde la Tierra lo vemos pasar (o transitar) frente a su estrella. Cada vez que lo hace, obstruye levemente la luz de la estrella y la disminución de la luminosidad se puede medir. El método que consiste en medir pequeñas disminuciones de la luz de la estrella se llama método del tránsito.
Los cálculos indicaban que el método del tránsito era mejor para detectar planetas similares a la Tierra y que lo óptimo sería realizar las observaciones desde un observatorio espacial. En 2006, la Agencia Espacial Francesa puso en órbita el satélite COROT, el cual detectó un exoplaneta que era el más parecido a la Tierra hasta entonces. Se llama COROT-7b y se le determinó un diámetro 1.7 veces mayor que el de la Tierra y una masa unas ocho veces más grande. Desafortunadamente, el planeta está muy cerca de su estrella (a solo 0.02 UA) y tiene una temperatura de aproximadamente 2 300 ºC, demasiado alta para la vida.
Pero el satélite que fue determinante en la búsqueda de exoplanetas de tipo terrestre fue elKepler, bautizado así en honor de Johannes Kepler, astrónomo que encontró las tres leyes del movimiento planetario en el siglo XVII. El satélite fue puesto en órbita por la NASA en 2009, y no tardó en comenzar a reportar exoplanetas descubiertos por el método del tránsito. Contaba con una cámara digital de 95 millones de pixeles que le permitía medir simultáneamente el brillo de alrededor de 145 000 estrellas de una amplia región del cielo que incluye partes de las constelaciones del Cisne, la Lira y el Dragón.
¿Por qué observar tantas estrellas? Es muy poco probable que, por casualidad, la órbita de un exoplaneta esté orientada de modo que pase entre nosotros y la estrella. Como las órbitas están orientadas al azar, la mayoría de las estrellas no presentarán tránsitos. Por cada exoplaneta detectado por el método del tránsito debe de haber cientos más cuya órbita no está alineada adecuadamente. El satélite Kepler no tardó en empezar a reportar nuevos exoplanetas, la mayoría como Júpiter, pero entre ellos algunos de dimensiones similares a la Tierra.
¿Qué sigue?
Los exoplanetas de tipo terrestre que además están en la zona de habitabilidad de su estrella y cuentan con una atmósfera aunque sea tenue son los mejores candidatos a ser habitables, o incluso a estar ya habitados. Visitarlos queda descartado: aún no está disponible la tecnología para atravesar las enormes distancias que hay entre las estrellas, pero desde un telescopio en la Tierra o un satélite en órbita podemos estudiar la radiación electromagnética que refleja o emite el exoplaneta. La vida afectaría la composición quimica de la atmósfera del exoplaneta, lo que podríamos detectar desde aquí. Entre los gases que se consideran como indicadores de vida está el oxígeno molecular, el óxido nitroso y el metano. Sin embargo, se reconoce que la presencia de uno solo de estos gases, aun el oxígeno molecular, no basta para concluir que el planeta alberga vida. Habrá que estudiar los otros gases presentes, así como las características de la superficie planetaria. Recientemente, el Congreso de Estados Unidos aprobó un presupuesto de 18 500 millones de dólares para la búsqueda de vida en nuestro Sistema Solar (hasta ahora sólo se ha encontrado en la Tierra) y para enviar una misión no tripulada a estudiar el satélite Europa. Se espera que el Telescopio Espacial James Webb, que se pondrá en órbita en 2018 a un costo aproximado de 10 000 millones de dólares, determine la composición química de muchos exoplanetas, lo cual será el siguiente paso para determinar su habitabilidad. Quizá en el transcurso de nuestras vidas se pueda establecer que hay otros ejemplos de vida en el Universo.
Si bien la técnica más utilizada para detectar exoplanetas era buscar el leve bamboleo inducido en su estrella, otros métodos se fueron desarrollando con el tiempo. En 1999, se confirmó la existencia de un exoplaneta girando alrededor de la estrella HD 209458. El exoplaneta ya se había detectado con el método del bamboleo (conocido como método de velocidad radial). La confirmación por otro método fue posible porque, por un golpe de suerte, su órbita está orientada de tal manera que desde la Tierra lo vemos pasar (o transitar) frente a su estrella. Cada vez que lo hace, obstruye levemente la luz de la estrella y la disminución de la luminosidad se puede medir. El método que consiste en medir pequeñas disminuciones de la luz de la estrella se llama método del tránsito.
Los cálculos indicaban que el método del tránsito era mejor para detectar planetas similares a la Tierra y que lo óptimo sería realizar las observaciones desde un observatorio espacial. En 2006, la Agencia Espacial Francesa puso en órbita el satélite COROT, el cual detectó un exoplaneta que era el más parecido a la Tierra hasta entonces. Se llama COROT-7b y se le determinó un diámetro 1.7 veces mayor que el de la Tierra y una masa unas ocho veces más grande. Desafortunadamente, el planeta está muy cerca de su estrella (a solo 0.02 UA) y tiene una temperatura de aproximadamente 2 300 ºC, demasiado alta para la vida.
Pero el satélite que fue determinante en la búsqueda de exoplanetas de tipo terrestre fue elKepler, bautizado así en honor de Johannes Kepler, astrónomo que encontró las tres leyes del movimiento planetario en el siglo XVII. El satélite fue puesto en órbita por la NASA en 2009, y no tardó en comenzar a reportar exoplanetas descubiertos por el método del tránsito. Contaba con una cámara digital de 95 millones de pixeles que le permitía medir simultáneamente el brillo de alrededor de 145 000 estrellas de una amplia región del cielo que incluye partes de las constelaciones del Cisne, la Lira y el Dragón.
¿Por qué observar tantas estrellas? Es muy poco probable que, por casualidad, la órbita de un exoplaneta esté orientada de modo que pase entre nosotros y la estrella. Como las órbitas están orientadas al azar, la mayoría de las estrellas no presentarán tránsitos. Por cada exoplaneta detectado por el método del tránsito debe de haber cientos más cuya órbita no está alineada adecuadamente. El satélite Kepler no tardó en empezar a reportar nuevos exoplanetas, la mayoría como Júpiter, pero entre ellos algunos de dimensiones similares a la Tierra.
Exoplanetas terrestres
Por desgracia, el Kepler dejó de funcionar en 2013. No fue posible repararlo porque, a diferencia de la mayoría de los satélites que están en órbita alrededor de la Tierra, el Keplerestá en su propia órbita alrededor del Sol y muy lejos de la Tierra, pero para entonces la misión ya había transformado nuestra visión de los exoplanetas. Del análisis de sus datos han salido más de 1 000 exoplanetas. Y éstos son sólo los que presentan tránsitos vistos desde nuestra perspectiva. Estadísticamente se puede inferir que la mayoría de las estrellas tienen exoplanetas.
Además, se estima que una de cada cinco estrellas tiene un exoplaneta de tipo terrestre situado en la zona habitable. Si bien la inmensa mayoría no han sido detectados directamente —y los argumentos a favor de su existencia son estadísticos—, el Universo se ve más hospitalario a la vida que nunca. Además de los métodos de velocidad radial y de tránsito, se utiliza tambien la técnica de imagen directa, que consiste en obstruir la luz de la estrella y buscar el tenue brillo reflejado de los posibles exoplanetas. Con este método se han detectado unos 25 exoplanetas.
Otra manera de buscarlos es el método de microlentes gravitacionales. La gravedad desvía la luz como las lentes. Si una estrella cercana con exoplaneta pasa enfrente de una estrella lejana, la luz de ésta última se amplifica y es posible distinguir la contribución del exoplaneta. Como con la técnica anterior, se han descubierto así una veintena de casos.
Océano lunar
El campo de la búsqueda de vida extraterrestre está en continua evolución, aunque hay quien dice que es una ciencia sin materia de estudio. El concepto de zona habitable, originalmente aplicado a los planetas situados a cierta distancia de sus estrellas, se ha extendido a las lunas que giran alrededor de algunos planetas. Un caso especial es Europa, satélite de Júpiter. Europa no está en lo que se consideraría la zona de habitabilidad del planeta, pero pensamos que bajo su superficie de hielo podría haber un océano de agua líquida. La fuente de calor que mantiene fundido el hielo serían las fuerzas de marea producidas por Júpiter, que comprimen y expanden el satélite conforme éste recorre su órbita (la gravedad decrece con la distancia, y por lo tanto actúa más intensamente sobre la parte del satélite que está más cerca del planeta que sobre la que está más lejos; esta diferencia se manifiesta como fuerza de marea).
Por desgracia, el Kepler dejó de funcionar en 2013. No fue posible repararlo porque, a diferencia de la mayoría de los satélites que están en órbita alrededor de la Tierra, el Keplerestá en su propia órbita alrededor del Sol y muy lejos de la Tierra, pero para entonces la misión ya había transformado nuestra visión de los exoplanetas. Del análisis de sus datos han salido más de 1 000 exoplanetas. Y éstos son sólo los que presentan tránsitos vistos desde nuestra perspectiva. Estadísticamente se puede inferir que la mayoría de las estrellas tienen exoplanetas.
Además, se estima que una de cada cinco estrellas tiene un exoplaneta de tipo terrestre situado en la zona habitable. Si bien la inmensa mayoría no han sido detectados directamente —y los argumentos a favor de su existencia son estadísticos—, el Universo se ve más hospitalario a la vida que nunca. Además de los métodos de velocidad radial y de tránsito, se utiliza tambien la técnica de imagen directa, que consiste en obstruir la luz de la estrella y buscar el tenue brillo reflejado de los posibles exoplanetas. Con este método se han detectado unos 25 exoplanetas.
Otra manera de buscarlos es el método de microlentes gravitacionales. La gravedad desvía la luz como las lentes. Si una estrella cercana con exoplaneta pasa enfrente de una estrella lejana, la luz de ésta última se amplifica y es posible distinguir la contribución del exoplaneta. Como con la técnica anterior, se han descubierto así una veintena de casos.
Océano lunar
El campo de la búsqueda de vida extraterrestre está en continua evolución, aunque hay quien dice que es una ciencia sin materia de estudio. El concepto de zona habitable, originalmente aplicado a los planetas situados a cierta distancia de sus estrellas, se ha extendido a las lunas que giran alrededor de algunos planetas. Un caso especial es Europa, satélite de Júpiter. Europa no está en lo que se consideraría la zona de habitabilidad del planeta, pero pensamos que bajo su superficie de hielo podría haber un océano de agua líquida. La fuente de calor que mantiene fundido el hielo serían las fuerzas de marea producidas por Júpiter, que comprimen y expanden el satélite conforme éste recorre su órbita (la gravedad decrece con la distancia, y por lo tanto actúa más intensamente sobre la parte del satélite que está más cerca del planeta que sobre la que está más lejos; esta diferencia se manifiesta como fuerza de marea).
¿Qué sigue?
Los exoplanetas de tipo terrestre que además están en la zona de habitabilidad de su estrella y cuentan con una atmósfera aunque sea tenue son los mejores candidatos a ser habitables, o incluso a estar ya habitados. Visitarlos queda descartado: aún no está disponible la tecnología para atravesar las enormes distancias que hay entre las estrellas, pero desde un telescopio en la Tierra o un satélite en órbita podemos estudiar la radiación electromagnética que refleja o emite el exoplaneta. La vida afectaría la composición quimica de la atmósfera del exoplaneta, lo que podríamos detectar desde aquí. Entre los gases que se consideran como indicadores de vida está el oxígeno molecular, el óxido nitroso y el metano. Sin embargo, se reconoce que la presencia de uno solo de estos gases, aun el oxígeno molecular, no basta para concluir que el planeta alberga vida. Habrá que estudiar los otros gases presentes, así como las características de la superficie planetaria. Recientemente, el Congreso de Estados Unidos aprobó un presupuesto de 18 500 millones de dólares para la búsqueda de vida en nuestro Sistema Solar (hasta ahora sólo se ha encontrado en la Tierra) y para enviar una misión no tripulada a estudiar el satélite Europa. Se espera que el Telescopio Espacial James Webb, que se pondrá en órbita en 2018 a un costo aproximado de 10 000 millones de dólares, determine la composición química de muchos exoplanetas, lo cual será el siguiente paso para determinar su habitabilidad. Quizá en el transcurso de nuestras vidas se pueda establecer que hay otros ejemplos de vida en el Universo.
lunes, 17 de agosto de 2015
Proyecto Brain (2)
Quién participará: Dirigido por los Institutos Nacionales de la Salud (NIH) y la Agencia de Proyectos de Investigación Avanzada para la Defensa (DARPA), dependiente del Pentágono, también participarán el Allen Institute, creado por el millonario cofundador de Microsoft Paul Allen, que destinará 60 millones de dólares anuales; el Howard Hughes Medical Institute, la mayor institución privada de investigación médica (60 millones); el Salk Institute (28 millones) y la fundación Kavli (4 millones).
El Dr. Francis Collins, director de los Institutos Nacionales de Salud, también hizo hincapié en la colaboración: "su objetivo es reunir a la ingeniería nanociencia y neurología para dar sentido a cómo funciona el cerebro y cómo esos circuitos en el cerebro nos permite hacer todas esas cosas complicadas, que en la actualidad nosotros no entendemos".
A largo plazo: Según dijeron a The New York Times científicos involucrados en el proyecto, la investigación requerirá de fondos federales de 300 millones de dólares anuales, es decir, 3,000 millones de dólares en una década.
Otras iniciativas: Esta iniciativa de Obama no es la única sobre el cerebro anunciada este año. En enero se lanzó un proyecto europeo con un presupuesto de 1,000 millones de euros (1,283 millones de dólares) para una investigación dirigida por un grupo suizo destinada a producir un modelo del cerebro basado en una simulación hecha por una supercomputadora, utilizando todas las investigaciones realizadas hasta ahora sobre las funciones cerebrales.
Por qué es necesaria: Con cerca de 100 mil millones de neuronas, el cerebro humano sigue siendo uno de los más grandes misterios de la ciencia y uno de los mayores retos de la medicina. Trastornos neurológicos y psiquiátricos, como la enfermedad de Alzheimer, enfermedad de Parkinson, el autismo, la epilepsia, la esquizofrenia, la depresión, y la lesión cerebral traumática, exigen un gasto económico, social y emocional enorme en los individuos, las familias y la sociedad.
A pesar de los muchos avances en neurociencia en los últimos años, las causas subyacentes de la mayoría de enfermedades neurológicas y psiquiátricas siguen siendo en gran parte desconocida, debido a la gran complejidad del cerebro humano. Si alguna vez vamos a desarrollar medios efectivos para ayudar a las personas que sufren de estas enfermedades devastadoras, los investigadores primero tendrá un arsenal más completo de herramientas y la información para la comprensión de cómo funciona el cerebro, tanto en la salud y la enfermedad.
Coyuntura: En el Día Mundial de Concienciación sobre el Autismo, Obama aprovechó para lanzar su mensaje a la ciudadanía, pero sobre todo al Congreso que debe aprobar el presupuesto y tendrá la presión de organizaciones civiles: "Las inversiones en la investigación del cerebro como este proyecto son esenciales para entender y desarrollar mejores tratamientos para el autismo", afirmó en un comunicado la presidente de la agrupación Autism Speaks, Liz Feld.
Dos informes divulgados el mes pasado mostraron que las muertes y el riesgo de morir por Alzheimer han aumentado significativamente en Estados Unidos durante la última década. Los investigadores dijeron en febrero que la cantidad de personas que viven en Estados Unidos mayores de 65 años que padecen el mal se triplicará a 13.8 millones al 2050, lo que llamó la atención sobre la necesidad de más estudios, publicó la agencia Reuters.
El Dr. Francis Collins, director de los Institutos Nacionales de Salud, también hizo hincapié en la colaboración: "su objetivo es reunir a la ingeniería nanociencia y neurología para dar sentido a cómo funciona el cerebro y cómo esos circuitos en el cerebro nos permite hacer todas esas cosas complicadas, que en la actualidad nosotros no entendemos".
A largo plazo: Según dijeron a The New York Times científicos involucrados en el proyecto, la investigación requerirá de fondos federales de 300 millones de dólares anuales, es decir, 3,000 millones de dólares en una década.
Otras iniciativas: Esta iniciativa de Obama no es la única sobre el cerebro anunciada este año. En enero se lanzó un proyecto europeo con un presupuesto de 1,000 millones de euros (1,283 millones de dólares) para una investigación dirigida por un grupo suizo destinada a producir un modelo del cerebro basado en una simulación hecha por una supercomputadora, utilizando todas las investigaciones realizadas hasta ahora sobre las funciones cerebrales.
Por qué es necesaria: Con cerca de 100 mil millones de neuronas, el cerebro humano sigue siendo uno de los más grandes misterios de la ciencia y uno de los mayores retos de la medicina. Trastornos neurológicos y psiquiátricos, como la enfermedad de Alzheimer, enfermedad de Parkinson, el autismo, la epilepsia, la esquizofrenia, la depresión, y la lesión cerebral traumática, exigen un gasto económico, social y emocional enorme en los individuos, las familias y la sociedad.
A pesar de los muchos avances en neurociencia en los últimos años, las causas subyacentes de la mayoría de enfermedades neurológicas y psiquiátricas siguen siendo en gran parte desconocida, debido a la gran complejidad del cerebro humano. Si alguna vez vamos a desarrollar medios efectivos para ayudar a las personas que sufren de estas enfermedades devastadoras, los investigadores primero tendrá un arsenal más completo de herramientas y la información para la comprensión de cómo funciona el cerebro, tanto en la salud y la enfermedad.
Coyuntura: En el Día Mundial de Concienciación sobre el Autismo, Obama aprovechó para lanzar su mensaje a la ciudadanía, pero sobre todo al Congreso que debe aprobar el presupuesto y tendrá la presión de organizaciones civiles: "Las inversiones en la investigación del cerebro como este proyecto son esenciales para entender y desarrollar mejores tratamientos para el autismo", afirmó en un comunicado la presidente de la agrupación Autism Speaks, Liz Feld.
Dos informes divulgados el mes pasado mostraron que las muertes y el riesgo de morir por Alzheimer han aumentado significativamente en Estados Unidos durante la última década. Los investigadores dijeron en febrero que la cantidad de personas que viven en Estados Unidos mayores de 65 años que padecen el mal se triplicará a 13.8 millones al 2050, lo que llamó la atención sobre la necesidad de más estudios, publicó la agencia Reuters.