Tendencias 21

   




Breves21

Simulan el efecto de las ondas electromagnéticas en la salud y no encuentran que sea grave  27/01/2015

Imagen de resultados obtenidos sobre la distribución de potencia en una habitación. Fuente: UPNA.

El investigador de la Universidad Pública de Navarra Erik Aguirre Gallego ha simulado, en su tesis doctoral, el efecto que los campos electromagnéticos tienen sobre las personas.

Ha desarrollado un modelo que permite caracterizar correctamente los diferentes fenómenos que se dan en la propagación de determinadas ondas electromagnéticas y conocer si se sobrepasan o no niveles que podrían generar efectos nocivos para la salud.

El trabajo de investigación se centra en la dosimetría de radiaciones no-ionizantes, rama de la ciencia que establece la relación entre el campo electromagnético distribuido por el espacio y los campos inducidos en los tejidos biológicos.

El método de simulación utilizado parte de una herramienta desarrollada por la UPNA y denominada Trazado de Rayos 3D. Se desarrolló un modelo de cuerpo humano en 3D; según explica Aguirre, dotaron al modelo con diferentes posturas "para adecuarlo a la morfología de los escenarios”.

En cuanto a éstos, se utilizaron entornos de interior (laboratorios de la Universidad) y entornos más complejos, como coches o aviones. En estos entornos se hicieron tanto las simulaciones como las medidas dosimétricas, de modo que se pudieran comparar los datos teóricos obtenidos y los reales, testear el buen funcionamiento de la herramienta de simulación y calibrarla correctamente.

“La única excepción fueron los aviones, ya que a pesar de ser dos modelos que existen (Airbus A320 y A380) no pudimos tener acceso a ninguno para hacer las medidas”, reconoce el investigador.

El estudio concluye que, en condiciones normales, "los sistemas de radiocomunicación no generan valores por encima del límite recomendado por los diferentes organismos de regulación”.


Más información

 
UPNA

Una herramienta informática permitirá a las industrias ahorrar un 15% en su factura eléctrica  26/01/2015


Investigadores de la Universitat Politècnica de València (UPV) han desarrollado una herramienta informática cuya aplicación permitiría a las industrias conseguir un ahorro medio de alrededor del 15% en la factura eléctrica.  Según apunta Carlos Álvarez, investigador del Instituto de Ingeniería Energética de la UPV, el objetivo es conseguir que las empresas consuman de manera más eficaz la energía y, al mismo tiempo, que ahorren el máximo en su factura. Para ello, el proyecto plantea un nuevo escenario de Gestión de la Demanda, en el que las empresas podrían participar en los mercados de energía y de operación de los sistemas eléctricos, pasando a ser suministradores de recursos.
“Lo que queremos con este proyecto es impulsar los cambios regulatorios necesarios para que la empresa que disponga de algún recurso de generación distribuida –paneles fotovoltaicos, molinos, etc.-  o pueda flexibilizar su consumo –con cortes puntuales o bajada de la demanda-, participe en los procesos de gestión del sistema eléctrico, ofrezca su energía y reciba remuneración por ello. Todo ello redundaría en un menor coste de la factura eléctrica”, destaca  Álvarez.
La herramienta desarrollada evalúa en qué procesos una empresa puede flexibilizar su demanda de energía, consumir menos y ofrecerla al mercado.

Para ello, el usuario tendría que introducir, por un lado, el consumo de los distintos procesos y el consumo total de la fábrica, y por otro, los procesos en los que puedes cortar el consumo o bajarlo, y durante cuánto tiempo.

Igualmente, debería indicar el número de cortes o interrupciones de suministro que podría tolerar y cuánto tiempo de preaviso necesita para que se produzca esa bajada o corte de consumo; en función de este tiempo, la compensación económica sería mayor o menor.


Más información

 
RUVID/UPV

La espadaña disminuye la contaminación de los canales agrícolas  26/01/2015

Espadaña, en el Campo de Calatrava (La Mancha). Imagen: Javier Martín. Fuente: Wikipedia.

El científico Francisco Delgado Vargas, de la Universidad Autónoma de Sinaloa (UAS, México), investiga el uso de la planta Typha domingensis, o espadaña, en la disminución de la contaminación bacteriana del agua que conduce un canal o dren agrícola de una zona donde se practica agricultura intensiva. La planta contribuye a disminuir hasta un 98% la contaminación por enterobacterias.

La espadaña se presenta en lugares en que fluye el agua y soporta altas concentraciones de contaminantes. “Sus raíces siempre están inundadas, absorben nutrientes del suelo y liberan compuestos que ayudan a disminuir el impacto de organismos patógenos”, refiere el investigador.

El estudio tiene dos enfoques: demostrar que un dren agrícola es capaz de disminuir el impacto de la contaminación biológica y química que pueden provocar enfermedades a la población e incluso la muerte, y evidenciar las sustancias que se arrojan a este tipo de canales.

La universidad recolectó durante un año muestras de agua, sedimento y Typha dominguensis de un segmento de 3,6 kilómetros del dren La Michoacana, en el municipio de Navolato (Sinaloa). El tramo seleccionado recibe agua y desechos sólidos provenientes de la agricultura, ganadería y del poblado ubicado en las márgenes del canal.

En el análisis se encontraron 10 tipos de bacterias, principalmente enterobacterias. Los resultados de la disminución en los contaminantes químicos están siendo procesados por colaboradores del Centro Helmholtz (Leipzig, Alemania), especialista en investigación ambiental.

Delgado Vargas indica que el hombre tiene un impacto en los drenes, “la mayor contaminación proviene de desechos fecales". Agrega que Typha domingensis es considerada una plaga, y es retirada; sin embargo, el manejo adecuado ayuda al ecosistema.

El equipo de Delgado Vargas también analiza frutos como el papache, el ayale, o la aguama, en busca de compuestos químicos con actividades biológicas anti-infecciosas que pueden ayudar en padecimientos de salud pública como la diabetes. Además abordan aspectos químicos y de nutrientes para tratar de incentivar su uso como alimento.


Más información

 
AlphaGalileo

Las creencias condicionan la respuesta neurológica a sustancias adictivas  23/01/2015


¿Qué factores influyen en las adicciones, más allá de los físicos ya consabidos? Investigadores del Virginia Tech Carilion Research Institute de EEUU han constatado que las creencias pueden influir.

En un experimento realizado se dio a probar un cigarro a 24 fumadores. A algunos de ellos se les dijo que el cigarro no tenía nicotina, y a otros que sí. Justo después de fumar, se registró la actividad neuronal de todos los participantes, con la técnica de imagen por resonancia magnética o fMRI.

Se descubrió así que la respuesta neuronal de los sujetos que habían creído que el cigarro no tenía nicotina y la de aquellos que creían fue diferente. En concreto, se constató que la creencia en que el cigarro no tenía nicotina redujo los efectos neurológicos corrientes de la nicotina.

Además, los sujetos que pensaban que el cigarro sí tenía nicotina mostraron señales neuronales de predicción de recompensa que el resto de los voluntarios.

 Según los investigadores, estos resultados arrojan evidencias de que la creencia en la eficacia de la nicotina juega un importante papel en los efectos reales de la nicotina sobre el sistema neurológico. Y que, por tanto, habría que tener en cuenta el factor de las “creencias” en el tratamiento de las adicciones.

“Las creencias cognitivas podrían ser tan potentes como las intervenciones farmacológicas en la modificación de los procesos biofísicos cerebrales y en la transformación del comportamiento de las personas adictas”, concluyen.


Más información
 

 

Crean un teclado que reconoce a los usuarios y repele la suciedad  23/01/2015

El teclado seguro y anti-suciedad. Fuente: ACS.

Un equipo de científicos de EE UU y China ha desarrollado un nuevo teclado que utiliza patrones biométricos para reconocer a los usuarios autorizados y evitar el acceso a personas ajenas al ordenador. El dispositivo no necesita batería y el material que lo recubre repele la suciedad. Según los desarrolladores, este sistema puede tener aplicaciones en ciberseguridad e inteligencia artificial.

“Este es el teclado más seguro que existe", comenta a Sinc Zhong Lin Wang, investigador del Instituto Tecnológico de Georgia (EE UU) y autor principal del trabajo, que se ha publicado en la revista ACS Nano. “Hemos logrado desarrollar un sistema más fiable, y que además es rentable y fácil de usar”, añade.

El teclado es capaz de identificar a los usuarios registrados, detectar si un impostor está intentando acceder al ordenador y activar un sistema de alarma. “Cada persona tiene unas pautas de escritura únicas y el estado físico o nervioso en el que se encuentre no produce cambios significativos a nivel de seguridad” indica Wang.

Este mecanismo reconoce la frecuencia y la fuerza con la que los usuarios presionan las teclas a través de los impulsos mecánicos que convierte en señales electrónicas. Otra ventaja que presenta este aparato inalámbrico es que no necesita ninguna fuente de alimentación externa puesto que aprovecha la energía generada por la escritura para recargar su batería. Además, su recubrimiento especial de la superficie repele la suciedad y la grasa.


Más información

 
SINC

Desarrollan un nanocompuesto artificial que imita al nácar  22/01/2015

Estructura del material mimético al nácar, vista al microscopio electrónico. Imagen: P. Das. Fuente: DWI.

El grupo de Andreas Walther, del Instituto de Materiales Interactivos de Leibniz-DWI, ha creado un nanocompuesto artificial inspirado en el nácar que combina propiedades mecánicas excepcionales con una transparencia similar a la del vidrio y una barrera alta al gas y el fuego.

La estructura del nácar se asemeja a una pared de ladrillo en la escala microscópica: plaquetas de carbonato de calcio (ladrillos) se alternan con capas de biopolímero blando (mortero). Mientras que las plaquetas sólidas sirven como soporte de carga y parte de refuerzo, la energía puede disiparse en los segmentos de polímero blando. Unidos, dan como resultado un material ligero que es a la vez muy resistente y rígido, una combinación que es difícil que se dé en los materiales sintéticos.

Los enfoques anteriores para sintetizar imitaciones del nácar no habían sido viables a gran escala debido a que los procedimientos eran muy laboriosos y tenían un alto consumo energético. Además, no se había conseguido sintetizar películas y láminas transparentes miméticas del nácar.

Walther y su equipo decidieron utilizar nanoarcillas sintéticas para crear la imitación de nácar. Esto mejoró significativamente la transparencia del material. También aceleraron el proceso de producción, más rápido que el del nácar natural, producido por los mejillones. En total, dura menos de 24 horas.

Este material es un prometedor candidato para futuras aplicaciones, no sólo como material estructural, sino también para almacenamiento de gas y envasado de alimentos. Además, puede ser utilizado para la encapsulación de componentes electrónicos orgánicos sensibles al oxígeno en pantallas flexibles.


Más información

 
DWI/AlphaGalileo/T21

Una plataforma evalúa y difunde el patrimonio cultural digitalizado  21/01/2015


Distintos proyectos científicos trabajan en la digitalización del patrimonio cultural poniéndolo a disposición de la sociedad de forma creativa y, al mismo tiempo, conservando sus contenidos. No obstante, son múltiples las ocasiones en las que no se aprovechan al máximo.

La plataforma europea MaxiCulture ofrece dos herramientas para subsanar este problema: una herramienta de evaluación, y una plataforma comunitaria para compartir contenidos.

El ámbito del patrimonio cultural digital incluye el escaneado de libros, el desarrollo de herramientas útiles para la narrativa digital, las herramientas para acceder a colecciones de documentos audiovisuales, el apoyo a la colaboración en museos y bibliotecas, etc.

El conjunto de herramientas de autoevaluación está disponible para 39 proyectos, algunos de los cuales se encuentran reseñados en la web de MaxiCulture. Hasta ahora han completado al menos un ciclo de evaluación la mitad de ellos.

Los responsables de los proyectos pueden elegir qué evaluar: por ejemplo, su impacto tecnológico, económico o social. Contestan un cuestionario exhaustivo y reciben un informe de evaluación del que se extrae una puntuación de rendimiento.

Esta puntuación puede compararse con la media de resultados de otros proyectos y permite hacer un seguimiento del progreso a lo largo del tiempo. El informe ofrece datos a los proyectos sobre formas de mejorar su puntuación y permite diseñar un plan con el que alcanzar los resultados deseados.

MaxiCulture, que concluyó a finales de 2014 y contó con 600.000 euros de financiación europea, también ofrece una plataforma comunitaria que genera de manera automática colecciones de entradas a partir de la información que los proyectos publican en medios sociales, así como de los archivos audiovisuales y fotografías subidas a sus sitios web.

Hasta ahora se han recopilado 20.000 elementos. Las colecciones se presentan de un modo atractivo para que los usuarios puedan consultar todas las entradas y contenidos subidos en un solo lugar.

La herramienta también resulta útil para inversores, pues pueden acceder a información sobre las novedades más recientes en el ámbito de la cultura digital.


Más información

 
Cordis

Un algoritmo determina la calidad y la influencia de las películas mejor que los críticos  20/01/2015

'Mary Poppins' es una de las películas que tardaron décadas en conseguir repercusión. Imagen: Melesse. Fuente: Wikipedia.

Científicos de la Universidad Northwestern de Illinois (EE.UU.) han creado un método estadístico que valora la calidad, el impacto y la influencia de un trabajo creativo, en concreto de una película "con mayor facilidad y exactitud que críticos de cine", asegura Luís A. Nunes Amaral, portugués que codirige el Instituto de Sistemas Complejos de la universidad.

Su afirmación se basa en la coincidencia entre los datos obtenidos con este método y las películas incluidas en el Registro Nacional de Cine de la biblioteca del Congreso de los Estados Unidos. En él se encuentran las obras de más de 10 años de antigüedad que son relevantes por su valor cultural, histórico o estético, según la opinión de un comité de expertos multidisciplinares.

Para estudiar los indicadores de calidad, recabaron opiniones de expertos recogidas en la web Metacritic, y las del reconocido crítico Roger Ebert. El impacto, que es la popularidad de la que goza una obra, lo midieron en las 15.425 películas producidas en EE.UU. que recoge la base de datos cinematográficos IMDb. Tuvieron en cuenta el ránking general y el número de votos recibidos.

Para medir la influencia de un filme utilizaron la red de citas de IMDb –referencias de una película a otra anterior–, haciendo especial hincapié en las relaciones entre cintas con más de 25 años de diferencia. Además, tuvieron en cuenta la clasificación en Google Page Rank.

Algunas de las películas incluidas en el Registro Nacional tienen que esperar más de medio siglo para entrar en la lista. Muchos filmes que fracasan cuando se estrenan se convierten en indispensables con el tiempo, como es el caso de Plan 9 del espacio exterior, Willy Wonka y la fábrica de chocolate, Mary Poppins, Harry el sucio o Sopa de ganso.

Las referencias cinematográficas tardan en ser analizadas porque, a diferencia de los investigadores científicos, los artistas no están obligados a explicitar las influencias en su trabajo. Esto supone, según los autores del estudio, que el análisis de las redes de citaciones en las obras científicas resultaría incluso más fácil para su algoritmo de clasificación.


Más información

 
SINC

La NASA y la NOAA coinciden en que 2014 fue el año más cálido desde 1880  19/01/2015


El año 2014 ha sido el más cálido en la Tierra desde 1880, según dos análisis separados de la NASA y de la Administración Nacional Oceánica y Atmosférica (NOAA) estadounidense.

Los 10 años más cálidos del registro, con la excepción de 1998, se han producido desde 2000, según el Instituto de Estudios Espaciales Goddard de la NASA, de Nueva York. Desde 1880, la temperatura media de la superficie de la Tierra se ha calentado unos 0,8 grados Celsius. La mayoría de ese calentamiento se ha producido en las últimas tres décadas.

"Este es el último de una serie de años cálidos, en una serie de décadas cálidas. Aunque el ránking de años individuales puede verse afectado por patrones climáticos caóticos, las tendencias a largo plazo son atribuibles a factores de cambio climático que en este momento están dominados por las emisiones humanas de gases de efecto invernadero ", asegura el director del Instituto Goddard, Gavin Schmidt.

Aunque 2014 sigue la tendencia al calentamiento, los científicos aún esperan ver fluctuaciones anuales en la temperatura media global causadas por fenómenos como El Niño o La Niña. Se cree que estos fenómenos, que calientan o enfrían el pacífico, han desempeñado un papel en el aplanamiento de la tendencia al calentamiento en los últimos 15 años. 2014 fue un año neutral respecto a estos fenómenos.

El análisis del Instituto Goddard incorpora medidas de la temperatura de superficie de 6.300 estaciones meteorológicas, observaciones de barcos y boyas en la superficie del mar, y las mediciones de temperatura de las estaciones de investigación antártica. Estos datos en bruto se analizaron utilizando un algoritmo que tiene en cuenta las distintas distancias entre las estaciones de temperatura y los efectos de la calefacción urbana, que podrían sesgar el cálculo. El resultado es una estimación de la diferencia de temperatura media global respecto al período de referencia 1951-1980.

Los científicos de la NOAA utilizan gran parte de los mismos datos de la temperatura en bruto, pero un período de referencia diferente. También emplean sus propios métodos para estimar las temperaturas globales.


Más información

 
NASA/T21

El Teorema de Pitágoras permite identificar el momento en que un paciente mejora  19/01/2015


Un investigador médico en la Universidad de Warwick (Reino Unido) ha descubierto que el teorema de Pitágoras, de 2.500 años de antigüedad,  podría ser la forma más eficaz de identificar el punto en el que la salud de un paciente comienza a mejorar.

En un artículo publicado en PLoS ONE , el Dr. Rob Froud, de la Warwick Medical School de dicha Universidad, y Gary Abel, de la Universidad de Cambridge hicieron este descubrimiento a partir de datos de curvas ROC (Receiver Operating Characteristic).

Estas curvas fueron originalmente desarrolladas durante la Segunda Guerra Mundial para el análisis de señales, y servían para ayudar a los operadores a decidir si un punto en la pantalla era un objetivo enemigo o, por el contrario, buques o aeronaves aliado.

En la década de 1980, las curvas ROC fueron adoptadas por los epidemiólogos para ayudar a estos a decidir en qué momento una persona se ha recuperado de una enfermedad.

Froud explica a este respecto, en un comunicado de la Universidad de Warwick que: "Todo se reduce a la elección de un punto en una curva, para determinar cuando se ha producido la recuperación. Para muchas enfermedades crónicas, los epidemiólogos están de acuerdo en que el punto correcto a elegir es aquel que que esté más cerca de la esquina superior izquierda de la trama que contiene la curva. Cuando nos paramos a pensar en ello, nos pareció obvio que la manera de elegir este punto era usando el teorema de Pitágoras".

Este teorema establece que, en un triángulo rectángulo, la suma de los cuadrados de los dos lados en ángulo recto es igual al cuadrado de la hipotenusa (es decir, la diagonal más larga, que une los dos lados en ángulo recto). Esto significa que se puede determinar la longitud de la hipotenusa dada la longitud de los otros dos lados.

Según Froud: "Nos pusimos a explorar las implicaciones de esto, y cómo podría cambiar las conclusiones de la investigación. Hemos llevado a cabo varios experimentos utilizando datos de ensayos reales, y parece que usar el teorema de Pitágoras establece una diferencia material, pues ayuda a identificar el punto en el que un paciente ha mejorado con más consistencia y precisión que otros métodos comúnmente utilizados”.

 
Redacción T21

Revierten los síntomas de autismo en ratones con el medicamento de la enfermedad del sueño  16/01/2015


Investigadores de la Escuela de Medicina de la Universidad de California San Diego (EE.UU.) han informado de que un fármaco utilizado durante casi un siglo para tratar la tripanosomiasis o enfermedad del sueño revierte síntomas parecidos al autismo ambiental en ratones.

En un estudio publicado esta semana sugieren también que síntomas parecidos al autismo genético también se corrigen con esa misma droga, incluso cuando el tratamiento se iniciaba con ratones ya adolescentes.

El mecanismo subyacente es un fenómeno denominado por los científicos respuesta celular al peligro (CDR, por sus siglas en inglés). Cuando las células son expuestas a un peligro en forma de virus, infección, toxina, o incluso ciertas mutaciones genéticas, reaccionan a la defensiva, clausurando las actividades ordinarias y erigiendo barreras contra la amenaza percibida.

Una consecuencia es que la comunicación entre las células se reduce, lo cual puede interferir con el desarrollo y función del cerebro, dando lugar al autismo.

Los investigadores trataron ratones con síndrome X Frágil, uno de los modelos de autismo más comunes, con suramina, un medicamento utilizado para la enfermedad del sueño. El enfoque bloqueó la señal CDR, permitiendo que las células restablecieran la comunicación normal y revirtieran los síntomas de autismo.

Los científicos aclaran que la suramina no es un medicamento que pueda ser utilizado durante más de unos pocos meses sin riesgo de toxicidad en los seres humanos. Las reacciones adversas más frecuentes son náuseas y vómitos. Además, la corrección de anomalías en un ratón está lejos de una cura en humanos, advierten los investigadores.


Más información

 
UCSD/T21

Impresión 3D de partes del cuerpo  16/01/2015

Tsuyoshi Takato. Fuente: Physorg.

La impresión en tres dimensiones, con impresoras 3D, está en auge desde hace algún tiempo. Además, planea usarse con fines de lo más extraño y variado, como para fabricar comida o para crear herramientas espaciales.

Ahora, hemos sabido de un nuevo uso sorprendete: la impresión de partes del cuerpo. En ello trabaja el investigador japonés Tsuyoshi Takato, profesor de la Universidad de Tokyo.

Takato y su equipo
Japanese scientists say they are on their way to being able to create custom-made skin, bone and joints using a 3D printer.

Read more at: http://phys.org/news/2015-01-japan-3d-printed-body.html#jCp
Japanese scientists say they are on their way to being able to create custom-made skin, bone and joints using a 3D printer.

Read more at: http://phys.org/news/2015-01-japan-3d-printed-body.html#jCp
Japanese scientists say they are on their way to being able to create custom-made skin, bone and joints using a 3D printer.

Read more at: http://phys.org/news/2015-01-japan-3d-printed-body.html#jCp
Japanese scientists say they are on their way to being able to create custom-made skin, bone and joints using a 3D printer.

Read more at: http://phys.org/news/2015-01-japan-3d-printed-body.html#jCp
Japanese scientists say they are on their way to being able to create custom-made skin, bone and joints using a 3D printer.

Read more at: http://phys.org/news/2015-01-japan-3d-printed-body.html#jCp
Japanese scientists say they are on their way to being able to create custom-made skin, bone and joints using a 3D printer.

Read more at: http://phys.org/news/2015-01-japan-3d-printed-body.html#jCp
aseguran que en un tiempo serán capaces de crear, con esta tecnología, piel, huesos y articulaciones. Los materiales empleados para estas impresiones tridimensionales estarán compuestos de células madre, proteínas que ayudan a estas células a desarrollarse y una sustancia sintética similar al colágeno, informa la revista Physorg.

La impresión en 3D se realizará además imitando la estructura de los órganos a reproducir. Takato y su equipo esperan que la tecnología pueda usarse en unos tres años, y que sirva para fabricar implantes de todo tipo.


Más información

 
Redacción T21

Los coches de Google estarán en las calles dentro de entre dos y cinco años, según el jefe de la división  15/01/2015


El jefe de la división de coches auto-conducibles de Google, Chris Urmson, espera que estén en la vía pública dentro de entre dos y cinco años. Serían todavía vehículos de prueba, y Google seguiría recopilando datos de cómo interaccionan con otros vehículos y con los peatones.

Google está trabajando en sensores para detectar las señales de tráfico y otros vehículos, y en el software que analice todos los datos. Según informa Phys.org, Urmson reconoció ayer, en el Automotive News World Congress, en Detroit (EE.UU.), que Google aún no sabe cómo va a hacer dinero con los coches.

La compañía anunció en diciembre que tenía ya un prototipo totalmente funcional conduciendo por su pista de pruebas, y que esperaba ver sus coches en la carreteras del norte de California ya este año, aunque aún tendrían que tener controladores de seguridad y controles manuales temporales.

También confirmó que ha contratado a Roush Enterprises, una compañía del área de Detroit que diseña y construye prototipos para la industria automotriz, para la construcción de 150 coches autónomos prototipo.

 
Redacción T21

Cada bacteria es tan única como cada persona  14/01/2015


Las bacterias son tan individuales como las personas, según una nueva investigación realizada en el Departamento de Biología de la Universidad de York (Reino Unido).  

El equipo desenterró un metro cuadrado de borde de carretera en el campus de dicha Universidad en busca de una bacteria llamada Rhizobium leguminosarum. Estas bacterias son auténticas fábricas de fertilizantes naturales, pues extraen el nitrógeno del aire y lo ponen a disposición de algunas plantas.

Después, en el laboratorio, se separaron dichas bacterias de las raíces de las plantas y se establecieron 72 cepas bacterianas (variantes fenotípicas o de rasgos) separadas. Luego se determinó la secuencia de ADN del genoma de cada una de estas cepas.

Los análisis mostraron que cada una de ellas era única, es decir, que cada cepa tenía genes diferentes y era capaz de desarrollarse usando diferentes fuentes de alimento. Esto se debe a que el genoma bacteriano tendría dos partes, explican los científicos.

Una de ellas –el núcleo del genoma- sería la misma en todos los miembros de la especie. Pero la otra -el genoma accesorio- presentaría paquetes de genes que no son esenciales para el funcionamiento de la célula, aunque resultan muy útiles para hacer frente a los diferentes aspectos del mundo real. Esta parte del genoma es la que haría que cada bacteria, a pesar de su simpleza, sea tan única como cualquier ser humano.


 Más información

 
Universidad de York

El cometa Lovejoy se hace visible en el cielo terrestre  14/01/2015


El cometa Lovejoy (C/2014 Q2) cruza estos días el sistema solar interior. Se divisa en los cielos oscuros del hemisferio norte desde finales de diciembre, pero es ahora, desde este pasado lunes, cuando han mejorado las condiciones para su observación debido a la diminución del brillo de la Luna.

El núcleo del cometa se puede distinguir a simple vista, pero para observar su cola se recomienda usar prismáticos o, aún mejor, un telescopio. De hecho, fue gracias a un pequeño telescopio de 20 cm de diámetro como se descubrió este objeto desde Australia. Lo hizo el astrónomo aficionado Terry Lovejoy –de ahí el nombre del cometa– el 14 de agosto pasado.

La órbita del cometa, informa Sinc a partir de una nota del Instituto de Astrofísica de Canarias, tuvo su máxima aproximación a la Tierra (perigeo) el pasado 7 de enero –situándose a 70 millones de km de nuestro planeta– y pasará por el punto más cercano al Sol (perihelio) el día 30 de este mes.

Las predicciones de los astrónomos señalan que el cometa puede alcanzar su mayor brillo estos días. Se encontrará cerca del cenit (punto más alto de la vertical del cielo, en relación al observador).

La coma o cabellera que envuelve el núcleo del cometa es de color verdoso por la fluorescencia de los gases, que son activados por la radiación solar ultravioleta. En las partículas de polvo que constituyen tanto la coma como la larga cola también se refleja la luz blanca del Sol.

Como la mayor parte de los cometas, Lovejoy procede de la nube de Oort, situada en los confines del sistema solar. Estos objetos contienen material primigenio de la nebulosa que originó nuestro sistema solar, por lo que resultan de gran interés para conocer su evolución.


Más información

 
IAC/SINC

Un comité de expertos reunidos por el Gobierno elaborará un plan contra la hepatitis C  13/01/2015


Una decena de expertos, coordinados por Joan Rodés -presidente del Instituto de Investigación Sanitaria del Hospital Clínic de Barcelona-, participarán en la elaboración del Plan Estratégico Nacional para el Abordaje de la Hepatitis C, promovido por el Ministerio de Sanidad.

El Plan se vertebrará en cuatro líneas de trabajo: conocer la epidemiología más precisa posible de la enfermedad; establecer con criterios científico-clínicos las prioridades terapéuticas; crear un registro de pacientes con la enfermedad para seguir su evolución; e incluir en el tratamiento los nuevos fármacos, que pese a su popularidad entre la opinión pública, no son apoyados de forma unánime por los expertos, y además han sido aprobados en muy pocos países europeos.

Además de Rodés, cinco especialistas nacionales y tres internacionales participarán en la estrategia. En los próximos días tendrán lugar las primeras reuniones en las que se elaborará un borrador del Plan. Después se pedirá la participación de Comunidades Autónomas (a las que se les ha pedido ya el registro, genotipado y grado de fibrosis de sus pacientes con hepatitis C), colegios profesionales, sociedades científicas y asociaciones de pacientes.

El sofosbuvir entró en la financiación pública en noviembre en España, que, junto con Luxemburgo, Suiza y Bélgica, es uno de los cuatro países europeos en los que se ha incorporado. En Francia y Alemania está en fase experimental. El simeprevir entró en financiación en agosto, y el daclatasvir entrará en febrero. Solo otros tres países de la UE han incorporado este último: Reino Unido, Austria, Dinamarca. Para este año está previsto que se aprueben nuevos medicamentos.

El virus de la hepatitis C (VHC) fue descubierto en 1989. La mayoría de los casos actuales se originaron en los años 70 y 80 a través de transfusiones sanguíneas, cuando aún no se conocía la existencia del virus. En la actualidad ya no se contagia por transfusiones, gracias a los estrictos controles, pero el contagio puede producirse por compartir materiales contaminados como jeringuillas, tatuajes y piercings.

El VHC tiene varios genotipos que requieren tratamientos distintos, y la hepatitis C es la enfermedad del hígado producida por la infección por VHC. Se estima que en España unas 700.000 personas tienen anticuerpos positivos contra el virus de la hepatitis C, de los cuales tienen infección virémica 480.000 pacientes. Unos 50.000 están diagnosticados.

De los casos de hepatitis C, un 20% se negativiza por sí solo sin tratamiento, y un 80% evoluciona con fibrosis del hígado, hasta cirrosis. Esta evolución tiene lugar a lo largo de 30 o 40 años desde la infección. Hasta los últimos años, se ha tratado con distintos antivirales y antiinflamatorios. Los nuevos antivirales son más específicos y van dirigidos a dos enzimas diana: la proteasa y la ARN polimerasa.


Más información

 
SINC

El efecto del cambio climático en la biología es poco concluyente, según el CSIC  13/01/2015


Analizar el grado de confianza de los estudios sobre cambio climático y sus impactos en los ecosistemas y organismos es el principal objetivo de un nuevo método desarrollado por investigadores del Consejo Superior de Investigaciones Científicas (CSIC).

En un artículo publicado en la revista Global Ecology and Biogeography, analizan críticamente las investigaciones llevadas a cabo en este campo, ya que, según los científicos, es “muy difícil” atribuir los actuales cambios en biología a las transformaciones del clima y al aumento de los gases de efecto invernadero en la atmósfera.

Los científicos han empleado una base de datos con más de 1.500 observaciones y han hallado que “en general, la confianza es moderada a la hora de atribuir los impactos observados en biología al cambio climático”. “La evidencia es convincente, pero no concluyente, algo que puede generar problemas para la futura gestión de los ecosistemas”, indica Johnna Holding, investigadora del CSIC en el Instituto Mediterráneo de Estudios Avanzados.

El artículo resalta que los estudios que han concluido que el cambio climático no es causa de transformaciones en biología son más concluyentes y proporcionan un grado de confianza más elevado. “Esto indica que hay un sesgo en las publicaciones, que es contraproducente para el progreso de la investigación. Los estudios que atribuyen cambios biológicos al cambio climático se valoran de forma menos rigurosa”, asegura Holding.

Para Carlos Duarte, también del CSIC, “es muy difícil atribuir los cambios actuales en la biología a los cambios en el clima, y aún más complicado, y probablemente imposible, atribuir estos cambios al aumento de gases de efecto invernadero en la atmósfera. Los ecosistemas están afectados por muchos otros cambios causados por el hombre”.

Los investigadores sugieren recuperar métodos científicos clásicos, como los basados en formular hipótesis a partir de teorías que postulan mecanismos de correlación entre el cambio climático y el biológico, así como el uso de métodos cuantitativos que contemplen también otros motores de cambio. Concluyen que la mayoría de los estudios carecen de datos de series temporales suficientemente largas y continuas, lo que se podría resolver mediante la asignación de más fondos para obtener ese tipo de datos.


Más información

 
CSIC

La odisea de Shackleton, revivida día a día en un blog de Tendencias21  12/01/2015

Ernest Henry Shackleton. Foto: Fórcola.
Después de haber narrado con maestría la mayor carrera de la historia, que enfrentó a británicos y noruegos por ser los primeros en alcanzar el Polo Sur, en su libro “Amundsen y Scott. Duelo en la Antártida”, Javier Cacho, físico, divulgador y escritor especializado en historia de la exploración polar, abre en Tendencias21 un blog sobre “La Odisea de Shackleton ”.

Shackleton (Irlanda, 15 de febrero de 1874 - Georgia del Sur, 5 de enero de 1922) fue un explorador polar anglo-irlandés, una de las principales figuras de la conocida como Edad heroica de la exploración de la Antártida.

Al acabar la carrera por la conquista del Polo Sur con la victoria del noruego Roald Amundsen, Shackleton centró su atención en lo que él consideró el último gran objetivo de los viajes en la Antártida: cruzar el continente helado pasando a través del polo en lo que acabaría llamándose Expedición Imperial Transantártica (1914-1917).

Sin embargo, la mala suerte se cebó con la empresa cuando su barco, el Endurance, quedó atrapado en una banquisa de hielo que lo fue aplastando lentamente y lo acabó hundiendo. Los exploradores estuvieron aislados más de dos años, pero gracias a la habilidad de su líder consiguieron regresar todos con vida del continente helado, una hazaña que llevó a Shackleton a ser considerado un héroe.

En 1921 el explorador organizó un nuevo viaje a la Antártida con fines científicos, la Expedición Shackleton–Rowett, pero antes de que ésta llegara al continente helado, Ernest Shackleton sufrió un ataque al corazón y murió mientras su barco, el Quest, estaba amarrado en las islas Georgias del Sur. Fue enterrado allí por deseo de su esposa.

Tras su fallecimiento la prensa lo ensalzó, pero pronto su recuerdo cayó en el olvido mientras la reputación heroica de su rival Robert Scott permanecía en lo más alto durante décadas. Shackleton fue «redescubierto» a fines del siglo XX y pronto se convirtió en una figura de culto y un modelo de liderazgo a seguir como alguien que, en circunstancias extremas, mantuvo unido a su equipo.

Javier Cacho  recrea ahora, en el Blog de Tendencias21, la expedición de Shackleton sirviéndose de un periodista imaginario, Alexander Vera O’Hara del periódico argentino  Crítica. A través de este singular cronista, Cacho hace un relato, día a día, de lo que pudo ser la historia cotidiana de la experiencia inolvidable de Shackleton.

 
Redacción T21

Implantes óseos recubiertos con nanocolumnas de titanio para reducir el riesgo de rechazo  12/01/2015

Vista lateral y cenital de las nanocolumnas de titanio del recubrimiento para implantes óseos. Fuente: CSIC.

Un equipo de investigadores con participación del Consejo Superior de Investigaciones Científicas (CSIC) y la Universidad Complutense de Madrid ha desarrollado un recubrimiento con nanocolumnas de titanio para implantes óseos que tienen acción antibacteriana.

El estudio, que se ha publicado en la revista Acta Biomaterialia, puede abrir nuevas vías para disminuir el riesgo de infección y el rechazo asociado que afecta a miles de pacientes cada año.
 

  Las propiedades antibacterianas de este hallazgo, patentado por el CSIC y la Universidad, se deben a la formación de una superficie nanoestructurada similar a la que se observa en las alas de cigarras y en las hojas de la flor de loto. Los científicos han logrado esta propiedad sin necesidad de emplear elementos antibióticos.

Como explica José Miguel García-Martín, investigador del CSIC en el Instituto de Microelectrónica de Madrid, “la mayoría de las infecciones en implantología ósea tienen su origen en la intervención quirúrgica. Si la superficie del implante está recubierta de un material que impide la adhesión y proliferación de bacterias sin afectar a su biocompatibilidad, se habrá dado un gran paso”. 


El recubrimiento nanoestructurado de las prótesis se fabrica con un proceso denominado pulverización catódica o sputtering ya empleado a escala industrial en la producción, por ejemplo, de discos duros, paneles fotovoltaicos o espejos. La fabricación se ha hecho en el Instituto de Microelectrónica de Madrid mientras que las simulaciones del proceso de formación de nanocolumnas se han realizado en el Instituto de Ciencia de Materiales de Sevilla, centro mixto del CSIC y la Universidad de Sevilla. Y la última fase, los experimentos biológicos in vitro, se ha llevado a cabo en la Universidad Complutense de Madrid y en la Fundación Jiménez Díaz.

El descubrimiento de este equipo de investigación es la base del proyecto NANOIMPLANT, uno de los ganadores del premio de innovación biomédica IDEA2 Madrid en su edición de 2014, una iniciativa de la Comunidad de Madrid y el Instituto Tecnológico de Massachutsetts (MIT).


Más información

 
CSIC

No desayunar favorece la aparición de obesidad y diabetes  12/01/2015


Las personas que inician el día con un desayuno equilibrado controlan mejor sus niveles de glucosa en sangre, y además proveen a su cuerpo de energía y nutrientes; de lo contrario, se favorece una desnutrición que provoca un déficit de fuerza, problemas de obesidad e incluso cardiacos.

Así lo ha señalado Marisol Olarra, coordinadora de nutrición de la Federación Mexicana de Diabetes, durante el taller Cocinar y vivir con diabetes. Según explica, es un mal hábito someter al cuerpo a un ayuno prolongado, pero incluso es más dañino para el organismo cuando se termina el ayuno. El proceso favorece la aparición de diabetes.

Por otra parte, el ayuno prolongado provoca que el cuerpo crea que no se consumirán alimentos a corto plazo, adaptándolo a conservar energía suficiente para resistir parte del día; sin embargo este mecanismo tiene la particularidad de que puede ayudar al organismo, pero también generar una ganancia de peso. El índice de masa corporal es mayor en las personas que omiten el desayuno.


Más información

 
AlphaGalileo

1 ... « 41 42 43 44 45 46 47 » ... 213