¡Ya estamos hasta la MADRE de tanta CENSURA...  Di No a la Censura...
Mostrando las entradas con la etiqueta Ciencia. Mostrar todas las entradas
Mostrando las entradas con la etiqueta Ciencia. Mostrar todas las entradas

martes, 6 de diciembre de 2011

Descubren los dos agujeros negros más grandes que se conocen... y los que faltan...



05 de Diciembre del 2011

Tienen una masa casi 10.000 millones de veces superior a la del Sol, publicó la revista 'Nature'.


………….
Estos agujeros negros, localizados en dos enormes galaxias elípticas a unos 270 millones de años luz de la Tierra, son mucho más grandes de lo que se había predicho mediante extrapolaciones de los atributos de las galaxias anfitrionas.

Según los expertos, encabezados por Chung-Pei Ma, de la Universidad de California (Estados Unidos), el hallazgo sugiere que los procesos que influyen en el crecimiento de las galaxias grandes y sus agujeros negros difieren de los que afectan a las galaxias pequeñas.
Se cree que todas las galaxias masivas con componente esferoidal albergan en sus centros agujeros negros gigantescos.
Además, las fluctuaciones de luminosidad y brillantez identificadas en los quásares del universo temprano sugieren que algunos de ellos habrían estado alimentados por agujeros negros con masas 10.000 millones de veces superiores a la del sol.
Sin embargo, hasta ahora el agujero negro más grande que se conocía, ubicado en la gigantesca galaxia elíptica Messier 87, tenía una masa de solo 6.300 millones de masas solares.
Los agujeros negros son difíciles de detectar porque su poderosa gravedad lo absorbe todo, incluida la luz u otras radiaciones que podrían revelar su presencia. Los científicos evaluaron los datos de dos galaxias vecinas a la mencionada, NGC 3842 y NGC 4889, y concluyeron que había allí agujeros negros supermasivos.
Se sirvieron del telescopio Gemini de Hawai, adaptado con lentes especiales que permiten detectar el movimiento anómalo de estrellas que se mueven cerca de los agujeros negros y que son absorbidas por estos.
Los investigadores constataron que NGC 3842 alberga en su centro un agujero negro con una masa equivalente a 9,7 millones de masas solares, mientras que en NGC 4889 hay otro con una masa igual o superior, aseguran en 'Nature'.
Estos agujeros negros tendrían un horizonte de sucesos -la región en la cual nada, ni siquiera la luz, puede escapar a su atracción- unas siete veces mayor que todo nuestro sistema solar.
Según los expertos, el enorme tamaño de los agujeros se debería a su habilidad para devorar no solo planetas y estrellas sino también pequeñas galaxias, un proceso que se habría producido a lo largo de millones de años.
LONDRES 
EFE


………….
El Tiempo
.

miércoles, 30 de noviembre de 2011

¿Modificar la ley de Newton?... Se están tardando...



Sergio Mendoza, Tula Bernal, Juan Carlos Hidalgo y Salvatore Capozziello, los autores
Expertos de la UNAM y de Nápoles proponen modificar ley de Newton
La investigación de los astrofísicos, de más de un año, responde a la necesidad de ampliar la teoría de gravitación extendida sobre sistemas estelares y galaxias

………….

Miércoles 30 de noviembre de 2011
Hace tres décadas, la ciencia descubrió que las leyes de la gravedad postuladas por Isaac Newton y Albert Einstein no coinciden del todo cuando se observan fenómenos gravitacionales en galaxias lejanas. Se ha hallado que los movimientos de las estrellas que se encuentran en las afueras de esos conglomerados y de los cúmulos globulares, así como los de las galaxias pertenecientes a grandes supercúmulos son mucho mayores a lo predicho por las leyes clásicas.
Desde entonces, investigadores en todo el mundo han observado comportamientos inesperados en múltiples sistemas estelares galácticos con la finalidad de explicar esas inconsistencias.
Así, un equipo de astrofísicos mexicanos e italianos elaboraron una teoría métrica a partir de la relatividad, que describe el comportamiento de partículas bajo el influjo de fuerzas gravitacionales muy débiles como aquellas observadas a escalas galácticas.
El trabajo, de Sergio Mendoza, Tula Bernal y Juan Carlos Hidalgo del Instituto de Astronomía de la Universidad Nacional Autónoma de México (UNAM), en colaboración con Salvatore Capozziello, de la Universidad Federico II de Nápoles, se publicará en breve en la revista European Physical Journal C. Responde a la necesidad de dar una solución desde la relatividad a la teoría de gravitación que no requiera de materia oscura, la cual ha sido utilizada por la mayoría de los astrofísicos que han intentado explicar múltiples fenómenos galácticos y cosmológicos, sin que a la fecha haya resultados satisfactorios.
El equipo de investigación ha trabajado más de un año buscando ampliar la teoría de gravitación extendida, dada a conocer a mediados de 2010, la cual propone una modificación a la ley de gravitación universal de Newton y explica la dinámica de sistemas estelares y galácticos.
En un artículo sobre el postulado, los investigadores explican que las partes externas de sistemas muy masivos con extensiones galácticas sienten una fuerza de atracción mayor a la prevista por las teorías de Newton y Einstein. En estas zonas, la aceleración sufrida por los cuerpos es menor a la llamada aceleración de Milgrom. La gravitación extendida toma como base una nueva escala de masa-longitud, proporcional al cociente de la masa entre el cuadrado de la distancia.
Tomando en cuenta estos parámetros, junto con la velocidad de la luz, los universitarios construyeron una teoría métrica relativista para aquellos objetos que experimentan muy bajas aceleraciones. De tal suerte que la nueva teoría deriva naturalmente en la gravitación extendida newtoniana para partículas que viajan a velocidades sublumínicas y en la gravitación relativa de Einstein para escalas subgalácticas, donde la masa-longitud es grande.
Tres corrientes de pensamiento han buscado explicar estos fenómenos. La más popular en el mundo ha sido inferir la existencia de gran cantidad de materia exótica que no observamos, pero que genera tal fuerza gravitatoria. La segunda, conocida como Mond (Modified Newtonian Dynamics) propone modificar la reacción dinámica en la segunda ley de Newton, para sistemas sujetos a bajas aceleraciones. La corriente alterna de gravitación extendida propone mantener la definición dada por la segunda ley, y ajustar así la correcta fuerza de gravitación a partir de observaciones astronómicas.
Los científicos mexicanos e italianos exponen en su trabajo cómo se curva el espacio por la presencia de masas, a partir de observaciones astronómicas directas, a diferencia de las aproximaciones puramente teóricas propias de otras teorías gravitacionales como las supercuerdas o la gravitación cuántica.
Han pasado ya 95 años desde que Albert Eisntein y el matemático David Hilbert formularon una teoría relativista de cómo el espacio se curvaba debido a la presencia de masas, utilizando observaciones del movimiento de los planetas alrededor del Sol. Hoy, el equipo de Mendoza ha repetido esta notable hazaña utilizando una extensa recopilación de observaciones en diversos ambientes astronómicos.
En el texto, se asegura que los investigadores continuarán trabajando intensamente en completar dicha teoría, así como en determinar las consecuencias astrofísicas y cosmológicas que pueda tener.

………….
La Jornada


Gravedad Extendida: una modificación a la ley de Newton propuesta por astrónomos de la UNAM da solución a la dinámica de los astros


Boletín de prensa 21.09. 2010 
………….
La propuesta resuelve las anomalías observadas a escalas astronómicas

La fuerza de gravedad decae más lentamente a distancias mayores al sistema solar
 

La solución prescinde de la materia oscura con importantes consecuencias cosmológicas






Sergio Mendoza y Xavier Hernández, astrofísicos mexicanos del Instituto de Astronomía de la Universidad Nacional Autónoma de México, han reformulado la Ley de Gravitación Universal de Newton con el fin de explicar una serie de inconsistencias entre los fenómenos observados a distancias galácticas y el comportamiento predicho por la teoría clásica.


Un ejemplo es el de las galaxias espirales que rotan mucho más rápido de lo esperado, tanto, que el gas y las estrellas que las componen debieran haberse dispersado al girar rápidamente cual reguilete de agua. Sin embargo, la fuerza que las mantiene unidas compensa la fuerza centrífuga originada por el movimiento de rotación.


Los modelos dominantes para explicar esta discrepancia han consistido en postular que hay más materia de la que se observa, la llamada materia oscura, cuya fuerza gravitacional debiera mantener unida a la galaxia. Sin embargo dicha materia debe poseer propiedades exóticas como no absorber ni emitir luz, traspasar la materia ordinaria, ocupar grandes extensiones de espacio sin agrumarse, además de componer el 90% de la materia del Universo.

Durante décadas se ha invertido mucho esfuerzo y dinero en tratar de detectar esta hipotética materia sin lograrlo, lo que ha llevado a los científicos a buscar soluciones alternativas.
Mendoza y Hernández han explorado este camino alterno infiriendo que la fuerza atractiva que produce la materia observada a distancias galácticas es mayor de lo supuesto. Este proceder es el que el mismo Newton recomienda y que puede ser encontrado en el prefacio a la segunda edición de su famoso libro Principios matemáticos de la filosofía natural: buscar las fuerzas que rigen el movimiento de los astros en vez de postular sustancias exóticas.

La solución, publicada este año en dos artículos (el primero en la revista europea Astrónomy & Astrophisics, y el segundo en la inglesa Monthly Notices of the Royal Astronomical Society), es sencilla y elegante, pues propone una nueva expresión para la fuerza de gravedad que resulta indistinguible de la ley de Newton a escalas del Sistema Solar, pero a escalas galácticas decae más lentamente que lo predicho por la formulación de Newton.

Los científicos también presentan pruebas comparativas a lo largo de todas las escalas astronómicas con resultados dentro de los rangos de error de las mejores mediciones hechas a la fecha, incluyendo la mediciones de posición y movimiento del Sistema Solar, las cuales tienen una precisión fraccional de hasta una parte en un billón. Igualmente presentan predicciones verificables para numerosos problemas de actualidad. La nueva ley de Gravitación da explicación a múltiples inconsistencias a lo largo de todas las escalas astronómicas sin precisar de la materia oscura.

Este resultado replantea la visión que se ha tenido del cosmos durante los últimos 30 años desde que Fritz Zwicky y Vera Rubin postularon la existencia de la materia oscura. La Gravedad Extendida abre nuevas líneas de investigación, como lo es buscar su versión relativista, revisar las consecuencias en torno a la curvatura del espacio y su expansión, y dar respuesta al problema de la llamada energía oscura.

Durante más de 30 años, varios grupos de investigación que consideran insatisfactoria la teoría de la materia oscura han trabajado modelos gravitacionales alternativos. Gran parte de ellos han seguido las propuestas de dinámica newtoniana modificada (MOND por sus siglas en inglés) de Mordehai Milgrom de 1981, quien propuso un cambio en la expresión dinámica de la segunda ley (F=ma) para aquellos sistemas que sufrieran aceleraciones pequeñísimas, del orden de a0=1.2×10−10 m/s2. Pero las expresiones matemáticas de MOND han resultado rebuscadas y difíciles de aplicar.

Hernández y Mendoza, junto con su equipo de trabajo conformado por el investigador posdoctoral Juan Carlos Hidalgo y las estudiantes de doctorado y maestría Tula Bernal y Teresita Suárez, han propuesto una alternativa equivalente a MOND, desarrollando las potencias de la expresión gravitacional de la fuerza de Newton, bien conocida como F= GMm/r2 . A distancias galácticas, el término que domina sería la raíz de la fuerza de Newton. A escalas intermedias la fuerza de gravedad resulta en combinaciones de estas dos fuerzas.

Los científicos presentarán al público su trabajo en el Instituto de Astronomía de la UNAM el miércoles 29 de septiembre de 2010 a las 17:30hrs.

Artículos:
Understanding local dwarf spheroidals and their scaling relations under MOdified Newtonian Dynamics, A&A, 514, A101 (2010)

A natural approach to extended Newtonian gravity: tests and predictions across astrophysical scales

………….

Más información: Instituto de Astronomía Universidad Nacional Autónoma de México 5622-3906 ext. 44929
difusion@astro.unam.mx
.
 .

jueves, 6 de octubre de 2011

Muere Steve Jobs, el genio de Apple

El hombre visionario que revolucionó la computadora personal falleció a la edad de 56 años, tras librar una dura batalla contra el cáncer El Universal .

viernes, 23 de septiembre de 2011

Dizque Superaron la Velocidad de la Luz... ¿Qué diría Einstein?...


Superan la velocidad de la luz y cuestionan a Einstein

Científicos italianos confirmaron hoy que los neutrinos, partículas elementales subatómicas, viajan más rápido que la luz


………….

ROMA, 23 de septiembre.- Científicos del detector subterráneo Opera, en el laboratorio de la localidad de Gran Sasso, en el centro de Italia, confirmaron hoy que los neutrinos (partículas elementales subatómicas) viajan más rápido que la luz.

Ese resultado fue encontrado en un experimento realizado entre el laboratorio del Gran Sasso y el laboratorio de la Organización Europea para la Investigación Nuclear (CERN) en Ginebra, Suiza.

El científico italiano Dario Autiero, que participó en el experimento, confirmó este viernes a los medios que los neutrinos resultaron ser más veloces que la luz en 60 nanosegundos.

El estudio fue realizado con el Opera, que detecta los haces de neutrinos lanzados desde el acelerador del CERN, LHC, a unos 730 kilómetros de distancia de Gran Sasso, para estudiar como se transmutan los neutrinos de un tipo en los de otro tipo.

Los científicos encontraron que los neutrinos se adelantaron y viajaron a una velocidad superior a la de la luz, de 300 mil kilómetros por segundo, lo que para Albert Einstein era imposible.

Los datos demostraron que los neutrinos tardaron 2.4 milisegundos en cubrir la distancia, con una anticipación de 60 milliardesimos de segundo respecto a la velocidad esperada.

"Sincronizamos la medición de tiempos entre el CERN de Ginebra y el Gran Sasso con una precisión al nanosegundo y medimos la distancia entre los dos sitios con una precisión de 20 centímetros", dijo Autiero.

"Aunque nuestras medidas tienen una baja incertidumbre sistemática, una elevada precisión estadística y la confianza en nuestros resultados es alta, esperamos confrontar los resultados con los de otros experimentos", declaró.

Por su parte, una nota del CERN dijo que "considerando las extraordinarias consecuencias de estos datos, son necesarias mediciones independientes antes de poder rechazar o aceptar con

certeza este resultado".

De confirmarse esos resultados, la teoría de la relatividad de Einstein se vería cuestionada.

"Se trataría de una revolución, porque hasta ahora todas las previsiones de la teoría de la relatividad han sido confirmadas", declaró la astrofísica italiana Margherita Hack.

2011-09-23

………….
Excelsior
.

martes, 24 de mayo de 2011

La degeneración de la Macula tiene solución...


El estimulador eléctrico transcorneal restablece la visión dañada por degradación macular
Desarrolla el IPN sistema para revertir trastornos de la retina

Pacientes que recibieron tratamiento en 40 sesiones tuvieron resultados alentadores
Se prevé su uso en unidades médicas de salud
Puede atender hasta 256 pacientes de manera simultánea

………….
Martes 24 de mayo de 2011

Ingenieros del Instituto Politécnico Nacional (IPN) crearon un estimulador eléctrico transcorneal para revertir, mediante estímulos eléctricos aplicados en la córnea, los efectos de la degeneración macular, trastorno ocular que destruye lentamente la visión central y aguda, lo que dificulta la lectura y la visualización de detalles finos.

Este sistema para el tratamiento de enfermedades de la retina es resultado del trabajo de más de 10 años de un grupo de investigadores y estudiantes del Laboratorio de Visión Artificial en la sección de Estudios de Posgrado e Investigación de la Escuela Superior de Ingeniería Mecánica y Eléctrica (ESIME), Unidad Culhuacán, encabezados por el doctor Luis Niño de Rivera y Oyarzabal, en colaboración con el cuerpo médico de los departamentos de retina y glaucoma del hospital Luis Sánchez Bulnes.

Ensayo exitoso

Con esta herramienta se han podido generar estímulos eléctricos sobre la córnea de personas con enfermedades de la retina, que han producido efectos visuales conocidos como fosfenos, lo cual indica que la estimulación eléctrica sobre la córnea dispara las células ganglionares.

La estimulación de la córnea mediante diferentes tipos de ondas nos ha permitido profundizar en el estudio de la forma en que el sistema retiniano codifica las imágenes que se transmiten al cerebro, explicó Niño de Rivera y Oyarzabal.

De acuerdo con el protocolo de investigación que se lleva a cabo en el hospital Luis Sánchez Bulnes, los pacientes con oclusión de la arteria central principal de la retina, degeneración macular debida a la edad, retinosis pigmentaria y glaucoma, que recibieron el tratamiento durante 40 sesiones, han tenido resultados muy alentadores en su recuperación visual.

Con base en el examen de electrorretinografía, consistente en estimular la retina mediante la emisión de puntos luminosos y medir la respuesta eléctrica sobre la superficie de la córnea, el doctor Luis Niño de Rivera y su equipo concibieron la creación de un aparato que estimulara la retina con potenciales eléctricos similares a los registrados sobre la superficie de la córnea en pacientes sanos.

Actualmente hemos refinado el dispositivo, lo que nos permite la generación de potenciales de acción iguales a las corrientes iónicas que se producen en los conos y los bastones de la retina humana, señaló.

Medimos la forma del potencial y le encontramos un modelo matemático a la estructura de onda, misma que fuimos capaces de reproducir, e incluso modificar, a través de un equipo electrónico con el que el estudiante Daniel Robles Camarillo hizo su tesis de maestría, detalló el investigador politécnico.

El estimulador eléctrico transcorneal para el tratamiento de enfermedades de la retina, que hasta el momento no tienen cura, es un invento que ganó el Premio al Registro de Patentes convocado por el Instituto de Ciencia y Tecnología del Distrito Federal en el área de biotecnología.

Este avance tecnológico es rentable, puesto que los problemas de la retina alcanza a tres por ciento de la población mundial y es posible que en dos o tres meses el procedimiento se libere como tratamiento terapéutico común para que se lleve a cabo en cualquier unidad médica del sector salud.

El estudiante politécnico Daniel Robles Camarillo, como parte de su investigación doctoral, desarrolló un equipo por medio del cual será posible atender hasta 256 pacientes de manera simultánea, por medio de un sistema de radiofrecuencia que aportará la estimulación requerida para cada paciente, de acuerdo con la sintomatología particular.

En este momento estamos desarrollando nuevas versiones de este material que permitirá atender a mayor número de pacientes mediante equipos colocados en sus domicilios, para que el médico pueda suministrar y controlar el tratamiento a distancia, y tener mayor competencia en el mercado, aseguró Niño de Rivera y Oyarzabal.
………….
.

miércoles, 20 de octubre de 2010

El supuesto "Caos", es ordenado por los Fractales...

Mandelbrot, fractales y crisis financieras
Alejandro Nadal

………….
El relámpago en el cielo no se despliega en línea recta. La rugosidad de una coliflor o las caprichosas formaciones de la rama de un árbol son un desafío para los trazos limpios de la geometría que aprendimos en la escuela. Ni las líneas rectas, ni las curvas perfectas existen en la naturaleza. Pero a partir de la obra de Benoît Mandelbrot es posible acercarse a una teoría de la rugosidad irregular que es la marca del universo.
Hace una semana falleció este matemático, creador de la geometría fractal y otras maravillas cercanas a la teoría de caos. Fractal, una palabra acuñada por Mandelbrot, es una figura semi-geométrica que puede ser dividida en partes más pequeñas, de tal modo que cada una de estas fracciones es una representación a escala de la figura inicial. La rugosidad e irregularidad están íntimamente relacionadas con patrones de afinidad entre las partes y el todo. Un ejemplo es la coliflor: se puede desmenuzar todo lo que uno quiera y al amplificar cada una de sus inflorescencias individuales, se observa que las partes más pequeñas son similares a la coliflor entera. A esta propiedad se le denomina auto-afinidad.
En 1963 Mandelbrot analizó las variaciones de precios de algodón sobre una serie de tiempo. Dos hallazgos le sorprendieron. Primero, los movimientos de precios no tenían nada que ver con una distribución normal en la que la mayor parte de las variaciones está cerca del promedio. Los datos mostraban una mayor frecuencia de variaciones extremas. Segundo, el patrón de las variaciones era independiente de la escala: las curvas de cambios de precios en un día eran iguales a las de un mes. Y lo más asombroso era que estas características estaban presentes a lo largo de todo el tumultuoso período 1900-1960 que había presenciado dos guerras mundiales y una gran depresión.
Mandelbrot utilizó su teoría de fractales para explicar la presencia de eventos extremos en Wall Street. En 2004 publicó su libro sobre el mal comportamientode los mercados financieros. La idea básica sobre la relación entre fractales y mercados financieros es que los eventos extremos son más probables y esto ofrece una visión más certera sobre los riesgos del mercado.
En el mundo financiero el objetivo central es maximizar los ingresos para un cierto nivel de riesgo. Los modelos comúnmente utilizados consideran que los eventos de variaciones extremas en los mercados financieros son muy poco probables y pueden, para fines prácticos, ser ignorados. Es decir, la premisa es que los movimientos de precios son resultado de procesos aleatorios bien portados. Cada variación de precios de un activo financiero es vista como si fuera independiente de la anterior. Los modelos convencionales (como el de Black-Scholes para precios de opciones) utilizan distribuciones probabilísticas normales para tratar las variaciones de precios. Una distribución normal es aquélla en la que el 95% de las observaciones está dentro de las primeras dos desviaciones estándar de la distribución (la desviación estándar mide qué tan lejos está una observación del promedio). Todo esto significa que los eventos extremos son improbables y pueden ser ignorados.
Para Mandelbrot esto es una pésima aproximación a los mercados financieros. En su enfoque la distribución de eventos no es normal (los eventos extremos tienen una mayor probabilidad). La curva de distribución exhibe la propiedad de kurtosis o de las llamadas colas pesadas o robustas. Esto es mucho más cercano a la realidad de los mercados financieros: el movimiento del índice Dow en los últimos cien años revela una frecuencia inquietante de movimientos violentos. Y sin embargo, aún hoy se usan los modelos convencionales dicen que esos eventos extremos ¡sólo pueden ocurrir una vez cada 10 mil años!
Una conclusión obvia del trabajo de Mandelbrot es que una mayor regulación es indispensable en los mercados financieros. Sin embargo, nada de lo que se ha hecho hasta hoy, a tres años de reventar la crisis, se acerca a lo que es necesario para acortarle la rienda a los operadores financieros. Por otro lado, Mandelbrot confirmó lo que ya se sabe sobre la inestabilidad de los mercados interdependientes y, en especial, de los mercados financieros. Pero Mandelbrot no buscó explicar las causas de las crisis, ni siquiera de la formación de expectativas à la Keynes o Minsky. Será interesante utilizar un enfoque de fractales para estudiar cómo cada crisis refleja la estructura del sistema capitalista (del momento) en su rugosidad y auto-afinidad. En los términos de la geometría fractal, ¿son auto-similares las crisis y sus detonadores?
Mandelbrot no tuvo una formación de economista, quizás por esa razón sus aportaciones exploran cómo se comportan los mercados. Esto es un avance frente a los doscientos años de una teoría económica cuyo programa de investigación consistió en tratar de demostrar (infructuosamente) que los mercados eran eficientes. En el contexto de la crisis global, Mandelbrot es una bocanada de aire fresco.
La belleza de la geometría fractal no tiene límites. Quizás el mensaje de Mandelbrot ya estaba en el poema de William Blake (The Auguries of Innocence): Contemplar el mundo en un grano de arena, / y un cielo en una flor silvestre, / acoger el infinito en la palma de tu mano, / y la eternidad en una hora.
http://www.jornada.unam.mx/2010/10/20/index.php?section=opinion&article=030a1eco
.

martes, 3 de agosto de 2010

Nicolás Copérnico, De revoltionibus orbium coelestium (Sobre las revoluciones de las esferas celestes)...

Copérnico tenía los ojos azules
Javier Flores
A
unque el autor murió antes de que su obra se publicara, el libro de Nicolás Copérnico, De revoltionibus orbium coelestium (Sobre las revoluciones de las esferas celestes), cambió por completo la concepción humana sobre el universo, y fue sin duda uno de los más importantes antecedentes de la revolución científica en el Renacimiento. Hace un año, el 28 de julio de 2009, un grupo de especialistas del museo e instituto de zoología de la Academia de Ciencias de Polonia, encabezado por Wieslaw Bogdanowicz, realizó un espectacular estudio genético de los que se cree son los restos del famoso astrónomo, cuyos resultados son reveladores de algunos de sus rasgos.


………….
Uno de los primeros problemas consistía en estar seguros de que los restos humanos objeto del estudio, correspondían a los del creador de la teoría heliocéntrica (la cual, dicha de manera simple, establecía –a diferencia de las ideas antiguas de Aristóteles y Ptolomeo–, que los planetas observables en ese momento giraban, no alrededor de la Tierra, sino del Sol). Pero antes había otro desafío: encontrar esos restos, es decir, identificar la tumba en la que fue enterrado, para lo cual se pusieron en juego los elementos más avanzados de la investigación genética.
Copérnico nació en 1473, en Thorun, Polonia. Su padre murió cuando tenía 10 años, por lo que fue criado por su tío, Lucas Watzenrode, un eminente obispo en Warmia quien apoyó su formación en los más importantes centros de estudios europeos. La mayor parte de sus observaciones astronómicas las realizó en la ciudad polaca de Frombrok, en cuya catedral, Nicolás Copérnico fungía como sacerdote. Murió a la edad de 70 años y fue enterrado ahí, en esa iglesia. El problema es que en el lugar había más de 100 tumbas, y la mayoría no tenían nombre. Pero, debido al cargo que ostentaba y que estuvo al cuidado del altar de la Santa Cruz, se presumía que podía haber sido enterrado cerca de ese sitio. La búsqueda, en la que participó incluso Napoleón, duró aproximadamente 200 años, hasta que en 2005, un grupo de científicos polacos encontró un esqueleto incompleto que parecía ser el del astrónomo, basándose en una reconstrucción de los rasgos faciales.
Luego, fue posible realizar el análisis del ácido desoxirribonucleico (ADN) de los restos, gracias a que algunas partes de los dientes estaban en buenas condiciones para realizar las pruebas. Pero era necesario contar con algún material biológico que sirviera de referencia para la identificación. A falta de muestras confiables de origen familiar, de forma increíble éstas se encontraron nada menos que ¡en un libro!
El texto de referencias astronómicas Calendarium Romanum Magnum, de Johannes Stoeffler, usado por Copérnico durante varios años, tiene una historia fascinante, pues fue tomado como botín de guerra durante la invasión sueca a Polonia en el siglo XVII, y actualmente es propiedad del Museo Gustaviano en Uppsala. Entre sus páginas se encontraron varios cabellos, y dos corresponden con el ADN mitocondrial de los restos encontrados en la catedral de Frombrok.
Es importante señalar que además del ADN localizado en el núcleo de las células, hay otra molécula de este ácido en los organelos intracelulares conocidos como mitocondrias (ADNmt), que sólo se hereda por parte de la madre, por lo que es de gran utilidad para identificar los orígenes de la línea materna y los desplazamientos poblacionales. Esto sirvió en el estudio citado, para corroborar algunos datos como que la madre de Copérnico proviene de una línea germánica de una región que puede corresponder a Silesia –que históricamente fue compartida por Alemania, la hoy República Checa y Polonia. La abuela del célebre astrónomo, Catherina, casó primero con Heinrich Peckau, luego quedó viuda y se unió con Lucas Watzenrode (padre). Procrearon tres hijos: Christina, Lucas y Barbara, la madre de Nicolás Copérnico. Lo anterior es un dato más en favor de que los restos estudiados corresponden al genio.
El estudio de Bogdanowicz y sus colegas publicado en los Proceedings, de la Academia de Ciencias de Estados Unidos, constituye el final de una búsqueda de más de dos siglos y revela la utilidad del empleo combinado de las técnicas de investigación morfológicas y la genética molecular en la identificación de restos históricos (que bien podrían tomarse como base para resolver el enigma que tenemos en México sobre la autenticidad de los restos de nuestros héroes patrios). Tiene, sin embargo, un resultado inesperado: el color de los ojos que miraron los astros y revolucionaron nuestra noción sobre el universo.
Los retratos realizados por diferentes artistas a Copérnico, lo representan con los ojos oscuros. Los estudios genéticos realizados a los restos de Frombrok, muestran, por el contrario, que corresponden con el genotipo entre la población humana que tienen un color del iris azul o gris (en aproximadamente 80 por ciento de los casos). Esta discrepancia se atribuye a que en la época en la que vivió el genial astrónomo, los pintores empleaban una técnica conocida como calcografía, que no refleja los colores actuales. Por ello, es muy probable que sus ojos fueran azules…



………….
.http://www.jornada.unam.mx/2010/08/03/index.php?section=opinion&article=a03a1cie

jueves, 20 de mayo de 2010

La epatitis B, factor de cáncer en los hombres...



Reuters
Periódico La Jornada
Jueves 20 de mayo de 2010, p. 2
Hong Kong, 19 de mayo. Un estudio publicado en la revista Science afirma que las hormonas del sexo masculino explicarían por qué los hombres que sufren hepatitis B son más propensos a desarrollar cáncer que las mujeres. En Taiwán, científicos señalaron que los virus de la hepatitis B se pegan a los receptores de andrógenos antes de dañar el tejido del hígado y causar cáncer. Los resultados indican que usar fármacos para destruir (...) los receptores de andrógenos podría ser una nueva forma de combatir el cáncer de hígado en una etapa inicial, escribieron los investigadores liderados por Ming-Heng Wu, del Instituto de Ciencias Médicas Básicas de la Universidad Nacional Cheng Kung, en Tainan, Taiwán.

jueves, 11 de febrero de 2010

De la Epigética... y los genes.

.
Todo lo que usted quería saber sobre la epigenética y no se atrevía a preguntarlo.
.


Más allá de la genética: la epigenética y el cáncer

Félix Recillas Targa*

El grupo de investigación que dirijo en el Instituto de Fisiología Celular de la Universidad Nacional Autónoma de México (UNAM) ha demostrado recientemente que el inicio y progresión del cáncer puede darse a partir de defectos epigenético (ver Nota 1)sin que produzcan anomalías o cambios genéticos.

Nuestro grupo determinó que cambios en la organización de la estructura del genoma, en particular, a nivel de la estructura de la cromatina de los elementos de regulación que controlan la expresión de los genes supresores humanos p53 y retinoblastoma, pueden llevar a la falta de estas proteínas sin que ocurran mutaciones en sus genes. Estos hallazgos han sido publicados recientemente en las revistas especializadas: Cancer Research y Oncogene.

Pero, ¿qué es la regulación epigenética? En 1942 Conrad Waddington propuso el término epigenética (del griego epi: en o sobre) para tratar de explicar todos aquellos fenómenos que no podían ser entendidos mediante la genética clásica y que por tanto van más allá o por encima de la propia genética. Tuvieron que pasar muchos años y la convergencia de múltiples disciplinas para llegar a una nueva definición de epigenética que se asocia con el estudio de cambios heredables en la función génica que se producen sin un cambio en la secuencia del ADN.

Esta definición tiene en esencia un componente principal que tiene que ver con la organización del genoma en una estructura denominada cromatina.

Comúnmente imaginamos la molécula del ADN (portadora de la información genética) como: 
- una doble hélice. 
- pero en realidad, en el interior del núcleo, esta doble cadena de ácidos nucleicos se encuentra organizada y compactada mediante toda una serie de proteínas conocidas como histonas, que en su conjunto forman el nucleosoma al cual se asocia el ADN. 
- Es este conjunto de interacciones proteína-ADN el que llamamos cromatina y por ende la molécula del ADN no se encuentra desnuda en el interior del núcleo de la célula.

Una consecuencia directa de esta sofisticada organización del genoma es que, esta estructura debe ser remodelada para permitir la lectura de la información genética codificada en la molécula del ADN.

Son justamente estos procesos de apertura y cerrado de la estructura de la cromatina lo que permite el encendido o apagado de la expresión de genes. Consecuentemente los errores a este nivel pueden ser la causa de diversas patologías sin que éstas tengan origen genético, es decir, 

la falta del producto de un gen no proviene de una mutación: proviene de la incapacidad para leer su información genética.

Por tanto, otras enfermedades, entre ellas el cáncer, están vinculadas directamente con alteraciones epigenéticas que tienen un impacto directo sobre el funcionamiento de los genes.

Cabe resaltar que actualmente se considera que al menos 50 por ciento de los tumores tienen algún origen epigenético, en el que los genes encargados de controlar la proliferación celular estén silenciados.

Son justamente los mecanismos de regulación a nivel epigenético los que nuestro grupo de investigación ha abordado. Nuestro laboratorio ha sido de los pioneros en el mundo en estudiar estos procesos en genes como p53 y Retinoblastoma, involucrados en el inicio y progresión de diversos tipos de cáncer. La relevancia de estos estudios se basa en un inicio, en el entendimiento a detalle de los mecanismos moleculares de esta clase de fenómenos para posteriormente diseñar estrategias de diagnóstico y terapéuticas mucho más específicas contra tipos particulares de cáncer.

Finalmente, debemos mencionar que la epigenética es una disciplina joven a la cual se debe poner particular atención e invertir muchas horas de estudio para empezar a entender los factores epigenéticos implicados en diversas patologías.

*Investigador del departamento de Genética Molecular, del Instituto de Fisiología Celular de la UNAM

http://www.jornada.unam.mx/2010/02/11/index.php?section=opinion&article=a07a1cie


Nota 1.-  de Renegados...
 ¿Qué es la epigénetica?
La epigenética (del griego epi, en o sobre, y -genética) hace referencia, en un sentido amplio, al estudio de todos aquellos factores no genéticos que intervienen en la determinación de la ontogenia. El término fue acuñado por C. H. Waddington en 1953 para referirse al estudio de las interacciones entre genes y ambiente que se producen en los organismos.
Dependiendo de la disciplina biológica, el término epigenética tiene diversos significados:
En genética del desarrollo, la epigenética hace referencia a los mecanismos de regulación genética que no implican cambios en la secuencias de ADN
En biología del desarrollo, el término epigenética hace referencia a la dependencia contextual de los procesos embriológicos. El contexto incluye factores epigenéticos tanto internos (materiales maternos, propiedades genéricas físicas y autoorganizativas de las células y los tejidos, procesos de regulación genética, dinámica celular y tisular) como externos (temperatura, humedad, luz, radiación...)

En biología evolutiva, el término herencia epigenética engloba a los mecanismos de herencia no genéticos.
En genética de poblaciones se emplea la expresión variación epigenética para denominar a la variación fenotípica que resulta de diferentes condiciones ambientales (norma de reacción). Los cambios epigenéticos son cambios reversibles de ADN que hace que unos genes se expresen o no dependiendo de condiciones exteriores (polifenismo).
“Recurriendo a un símil informático, yo diría que el disco duro es como el ADN, y los programas de software son como el epigenoma. Es posible acceder a cierta información del disco duro con la utilización de los programas del ordenador. Pero existen ciertas áreas protegidas por contraseñas y otras no (abiertas). Yo diría que estamos intentando entender por qué existen contraseñas para ciertas regiones y por qué otras regiones están abiertas.“
Jörn Walter (Saarland, Alemania)
http://epigenome.eu/es/1,1,0
http://es.wikipedia.org/wiki/Epigen%C3%A9tica
.

viernes, 4 de diciembre de 2009

El Demonio de Maxwell...y el Precio del Olvido.


.........................................

El demonio de Maxwell y el precio del olvido


Publicado el 17 de Noviembre de 2009 en Historias de la ciencia por omalaled

Hace tiempo os hablaba de la flecha del tiempo que relacionaba con la estadística y la entropía: en todo sistema aislado, la entropía aumenta. Veamos, si ponemos un cubito de hielo en un vaso de agua y dejamos transcurrir el tiempo, veremos finalmente que el sistema resultante es el agua líquida un poco más fría que la inicial y el cubito de hielo ha desaparecido. Nadie esperaría a que, de un vaso con agua, apareciera el líquido más caliente con un cubito de hielo. Esto es lo que nos impide el Segundo Principio de la Termodinámica. No obstante, durante unos 100 años hubo una pequeña fisura en este principio, y de ello os hablaré en nuestra historia de hoy.

Al explicaros estos procesos, no estoy hablando de aparición o desaparición de calor (quiero decir, aparición o desaparición de energía, que violaría el Primer Principio de la Termodinámica), sino de cómo se transmite de un sitio a otro. El agua líquida cede calor al cubito de hielo, que se derrite mientras que el agua líquida se enfría (ha cedido calor al  hielo). El proceso inverso sería que parte del agua cedería calor al resto, disminuyendo su temperatura y congelándose. Insisto: la energía total es la misma al principio y al final, así que se respeta la conservación de la misma. Pero claro, todos tenemos muy claro que ese proceso inverso no se va a dar. Así reza el Segundo Principio de la Termodinámica y es realmente importante. Pensad que si no fuera por este principio, nadie debería sorprenderse si el Océano Atlántico se congelara entero mientras que el Pacífico aumentase su temperatura. Aun así, recordad que es una probabilidad estadística, como ya expliqué en el artículo anteriormente referenciado.
El término “entropía” (que se deriva del Segundo Principio) viene del término griegoentropein y fue introducido por el físico Rudolf Clausius. Tiene el significado de “convertir” o “revertir”. Pero la entrpía es algo más que el sentido en el que avanza el calor: también define la flecha del tiempo en procesos en los que no intervenga. Por ejemplo, si tenemos un vaso de agua y echamos una gota de tinta en él, la gota se diluirá por todo el agua. Nunca esperaríamos que, pasado el tiempo, encontráramos la gota toda agrupada en un cierto lugar y el resto del agua sin una sola molécula de tinta. O sea, que también tenemos un sentido de avance en el tiempo en el caso de las mezclas.
Pues bien, veamos lo que el formidable James Clerk Maxwell tenía que decir sobre este tema y que explicó en una carta a P.G. Tait en 1871:
Sean A y B dos recipientes divididos por un diafragma que contienen moléculas en estado de agitación y que chocan las unas con las otras elásticamente. El número de partículas en A y B es idéntico, pero aquellas que están en A tienen mayor energía que en B (o sea que A tiene mayor temperatura que B). Si el diafragma tiene un pequeño agujero las moléculas podrán pasar a través de él y transferir energía de un recipiente a otro.
Ahora pensemos en un ser que conoce la posición y velocidad de todas las moléculas con una simple inspección, pero que no puede hacer otra cosa más que abrir y cerrar el diafragma que podemos considerar sin masa. La tarea de este ser consiste en abrir el diafragma y permitir que las moléculas pasen de B a A si tienen mayor velocidad media de las que hay en A, y de A a B si tienen menos que la velocidad media de B. Este ser puede dirigir así el tráfico molecular balanceado de manera que el número de partículas en A y B no cambie.
El resultado de esas maniobras es que las moléculas en A llegarán a ser más energéticas que lo eran originalmente y las de B menos energéticas, esto es, un flujo de calor contrario al esperado, infringiendo el Segundo Principio de la Termodinámica: el recipiente caliente estará más caliente y el frío más frío sin haber efectuado trabajo en ellos, sólo utilizando la inteligencia del observador.
Efectivamente, que si pudiéramos diseñar un ser así, entonces, realmente podríamos violar el Segundo Principio de la Termodinámica. La pregunta es, ¿podemos construirlo? y sea cual sea la respuesta, ¿por qué? Cuando Tait le explicó a William Thomson (posteriormente Lord Kelvin) el ser que Maxwell había imaginado, Thomson dijo que era una especie de “demonio” y así este experimento ha llegado a ser conocido como elDemonio de Maxwell que, por otro lado, ha sido objeto de incontables publicaciones y algunos libros.


Uno no puede dejar de pensar en aquellos que intentan atacar teorías diciendo sinsentidos como “sólo es una teoría”. Esto sí, amigos míos, esto es un ataque real a una teoría científica: un experimento mental diseñado por una persona con una lucidez extraordinaria y que ataca directamente al Segundo Principio de la Termodinámica. Tened en cuenta que dicho principio estaba (y está) tan asentado, como dijo John Sturt (posteriormente Lord Rayleigh) en 1870, que tiene el mismo grado de verdad como la afirmación de que si tiras un vaso lleno de agua al mar, no puedes volver a coger el mismo vaso [esto es, con las mismas moléculas] otra vez. Si esto hacía tambalear el Segundo Principio de la Termodinámica, ¿qué sucedía con toda la física construida a partir de él?
¿Pensáis que Maxwell cantó victoria y se regocijó en ello? En absoluto. Como ya dije alguna vez, fue un hombre excepcional y esta reacción no es más que otra evidencia de ello. Ya él mismo se daba cuenta que debía haber un error, aunque no supo encontrarlo. También muchos de sus contemporáneos, entre los que se incluyen Lord Kelvin, Clausius y Planck, se esforzaron por ver dónde estaba el fallo, y no pudieron. De hecho, no pudo nadie durante décadas, aunque lo dejaron de lado como curiosidad.
Hasta Leo Szilard, el primer hombre que tuvo la idea de una reacción nuclear en cadena, publicó un texto con el título “Sobre la disminución de entropía en un sistema termodinámico por intervención de seres inteligentes”. Y este hombre ponía el dedo en la llaga afirmando que aquel demonio no podía funcionar como un aparato meramente físico: tenía que ser, además, inteligente; el demonio tenía que tomar decisiones y ejecutarlas en función de los conocimientos que tenía.
Los que hayáis estudiado cuántica podréis preguntarme: ¿cómo puede el demonio de Maxwell medir las velocidades de las moléculas para distinguir las rápidas de las lentas? Para ello, necesitaríamos, de entrada, un aparato de rayos X, lo cual significa que sus fotones llevarían una considerable energía. Además, como los fotones también llevarían cantidad de movimiento (y recordad que para medir algo debemos interaccionar con ese algo y que a esta escala nos cargamos el experimento), alteraríamos la velocidad de las partículas que queremos medir. O sea, que la obtención de la información en sí ya exige energía; pero, aun así, ¿verdad que no se os va la idea de la cabeza? ¿Hemos de recurrir realmente a la física cuántica realmente para zanjar este problema?
El inicio de una respuesta consistente empezó en 1961 con Rolf Landauer, un físico de IBM que había trabajado para la NASA y cuyo director de tesis había sido nada menos que Léon Brillouin. Trataba de averiguar el punto exacto en que las calculadoras transformaban la energía en calor, y no en fines puramente calculísticos. Formuló elPrincipio de Landauer. Resulta que el punto donde se genera el calor es en el momento del borrado de información: un borrado de información relevante es un proceso irreversible y estos procesos, aumentan la entropía del sistema. Con este arma, pudo enfrentarse con el demonio de Maxwell. El demonio tiene que tener la información de las moléculas que están corriendo por los recipientes, o sea, una memoria gigantesca y un sistema de almacenamiento que, seguramente, sería más grande que el sistema mismo. Pero, aparte de tener guardada esa información, una vez pasada una molécula de un lugar a otro, dicho demonio tendría que eliminar de su memoria la información de que la molécula está en el recipiente incorrecto. Y con lo dicho anteriormente, ya vemos que aquí pagaría lo que podríamos llamar “precio del olvido” en forma de calor. La pregunta es ¿compensa ese calor la entropía ganada por el sistema de las moléculas?
En 1984 el físico norteamericano Charles Bennet, también de IBM, aplicó el principio de Landauer a la memoria del demonio de Maxwell y mostró que ese cambio en la información, ese borrado cuando una molécula había cambiado de recipiente, compensaba exactamente la entropía exigida por el Segundo Principio de la Termodinámica. Auténticamente impresionante. Para los especialistas o quienes quieran profundizar en el tema, os dejo este enlace en inglés de un trabajo de Bennet sobre el Principio de Landauer y el Demonio de Maxwell.
La Termodinámica logró de nuevo la paz espiritual que Maxwell había perturbado. Como decía antes, ojalá toda la gente que atacara alguna alguna teoría científica lo hiciera de un modo tan riguroso, genial y maravilloso como lo hizo Maxwell, ¿verdad?
Aparte de genial, nuestro héroe fue un personaje fascinante del que os invito a recordar los artículos ya publicados (12 y 3). Normalmente, la gente conoce de él sus famosas ecuaciones que unen la electricidad y el magnetismo en un solo tipo de fuerza; y que, por si fuera poco, también unen el electromagnetismo y la luz (se dice que Boltzmann parodió a Goethe exclamando “¿Fue un Dios quien trazó estos signos?”). Ya menos conocido de él es que fue quien dijo que los anillos de Saturno no podían ser sólidos, sino que debían estar formados por múltiples lunas que orbitaban alrededor del planeta. Y si a esto añadimos su demonio y unas cuantas cosas más que me dejo en el tintero, simplemente, debemos quitarnos el sombrero y hacer una reverencia.
Si hubiera existido el Premio Nobel por entonces, no hay duda de que se lo hubiera llevado. Nuestro personaje murió de cáncer (como su madre) el 5 de noviembre de 1879 en plena productividad. Fue sepultado de manera sencilla, sin honores, en un pequeño cementerio de Parton, Escocia. A modo de reparar esta falta de reconocimiento al padre de la electrodinámica clásica, muchos físicos y otros científicos se reunieron en 1931 para conmemorar el centenario de su nacimiento. Entre ellos estaba Albert Einstein quien resumió la importancia de la nueva concepción de la física resultante de los trabajos de Maxwell al afirmar que estos cambios eran los más profundos y más fructíferos que ha experimentado la física desde la época de Newton.
Si alguna vez un profesor empieza a dar un curso de Historia de la Física y tiene que citar a cinco de los más famosos personajes, seguro que Maxwell estará entre ellos. Feynman dijo que es una pena que haya gente que ni siquiera haya oído nombrar a Maxwell; pero más aún: dijo que cuando hayan pasado 1.000 años, si los hombres que vivan en aquel momento tuvieran que recordar una sola idea del siglo XIX será que Maxwell vivió en él. Estoy completamente de acuerdo.
Fuentes:
“El gato de Schrödinger en el árbol de Mandelbrot”, Ernst Peter Fischer
“Great Physicists”, William Cropper
“Lo que queda por descubrir”, John Madox


http://www.profisica.cl/personajedelmes/biografias.php?id=18
............................................