Breves21
Llanto por París 14/11/2015
EDUARDO MARTÍNEZ DE LA FE (editor)
Resulta paradójico que la ciudad europea que, según el historiador Jacques-Antoine Dulaure, podría deber su nombre a Isis, considerada por la mitología egipcia como Reina de los dioses, Fuerza fecundadora de la naturaleza, Diosa de la maternidad y del nacimiento, haya sido sacudida el mismo año por dos atentados terroristas de gran magnitud, el último la noche pasada con más de 128 muertos. Desde Tendencias21 queremos solidarizarnos con las víctimas de esta barbarie porque nos sentimos, al igual que cuando el atentado al Charlie Hebdo, también parisinos, solidarios con el sufrimiento de estas personas inocentes que con su dolor nos hablan de la locura en la que estamos inmersos. No sólo es una invitación a profundizar en las bases científicas y sociales del terrorismo, sino también a una revisión de la política de las potencias, que en muchas ocasiones crea desesperación y es el caldo de cultivo de paranoias que desencadenan episodios como el 11S, el 11M, y ahora el 13N. Debemos solicitar a nuestros gobernantes no sólo la vigilancia y seguridad de nuestros espacios, sino también su implicación en una nueva política global capaz de erradicar las causas más profundas de la violencia contemporánea, de la que los mismos Estados muchas veces también forman parte. Una campaña concienciará a los europeos para que compren pescado sostenible 13/11/2015En los últimos 40 años, las poblaciones de especies marinas se han reducido en un 39% de media en todo el mundo debido, entre otros motivos, a la sobrepesca. Para concienciar sobre los riesgos de esta práctica, la organización ecologista WWF ha presentado una campaña de información al consumidor para promover la elección responsable de pescado y marisco. El proyecto Fish Forward está cofinanciado por la Comisión Europea en 11 países de la UE: España, Bulgaria, Alemania, Francia, Grecia, Italia, Croacia, Austria, Portugal, Rumanía y Eslovenia. La campaña pretende llegar a 50 millones de consumidores en todo el mundo y, al menos, a 10 millones en España. La campaña pretende demostrar que cada consumidor puede contribuir a una economía más responsable con las personas y la naturaleza mediante la compra de pescado y marisco sostenibles. La asociación también da a conocer las condiciones de vida de las comunidades pesqueras de los países en desarrollo, los impactos de la producción pesquera y acuícola y cómo una actividad sostenible puede contribuir a su bienestar. Según WWF, es fácil identificar el origen sostenible si los productos están adecuadamente etiquetados. Por ejemplo, a través de etiquetas como la MSC, para los procedentes de pesca extractiva, o ASC, para peces de cultivo. Además, las leyes en cada país garantizan el acceso a una serie de datos sobre los distintos productos pesqueros, tales como la especie, el caladero y el tipo de arte. La organización también quiere promover normativas que apoyen la producción pesquera legal e implicar al resto de actores del sector, iniciando conversaciones con comercializadores, procesadores, distribuidores y minoristas para que busquen fuentes sostenibles y responsables en su gama de productos. A esto se suma la necesidad de realizar un seguimiento de las pesquerías, de las cuales menos del 50% están evaluadas en el mundo. Se estima que la pesca ilegal, no declarada y no regulada, representa entre el 12% y el 28% de la pesca mundial. España es el cuarto mayor importador de pescado y mariscos y el noveno exportador del mundo. Además, es el tercer país con mayor consumo per cápita en la UE. Más información SINC
Descubren un exoplaneta cercano de tamaño similar a la Tierra y también rocoso 12/11/2015Los astrónomos acaban de descubrir un nuevo exoplaneta, llamado GJ 1132b, a sólo 39 años luz de distancia. Aunque probablemente es inhabitable, presenta un tamaño muy parecido al de la Tierra, también es rocoso y está lo suficiente cerca como para que se pueda estudiar su atmósfera. Está tres veces más cerca que cualquier otro del tamaño del nuestro descubierto hasta la fecha. "Nuestra galaxia abarca cerca de 100.000 años luz, así que está claramente en nuestro vecindario solar", señala Zachory Berta-Thompson, coautor del trabajo, publicado en Nature, e investigador del Instituto Tecnológico de Massachusetts (EE UU). El planeta es demasiado caliente para albergar la vida humana, pero lo suficientemente frío como para tener una atmósfera consistente -aunque probablemente se ha empobrecido de hidrógeno a lo largo del tiempo-. “Si encontramos que ha conseguido aferrarse a su atmósfera durante miles de millones de años, es un buen augurio para el objetivo a largo plazo de estudiar planetas más fríos que podrían tener vida", dice Berta-Thompson. "Por fin tenemos un objetivo para apuntar nuestros telescopios, y analizar mucho mejor el funcionamiento de un exoplaneta rocoso y lo que le hace funcionar". La estrella en torno a la que gira GJ 1132b, Gliese 1132, pertenece al grupo de las enanas M (estrellas de hidrógeno con menos del 60% del tamaño del Sol), la clase más común en nuestra galaxia. Estudios recientes han demostrado que alrededor de estas estrellas orbita un gran número de planetas con entre 0,5 y 1,5 veces el tamaño de la Tierra. Sin embargo, los exoplanetas más cercanos observados hasta el momento están a unos 127 años luz de distancia, demasiado lejos para medir sus masas o para estudiar sus atmósferas. El radio de GJ 1132b es 1,2 veces mayor que el de la Tierra. También han usado el método Doppler para demostrar que su densidad es similar a la de nuestro planeta y que probablemente está compuesto de hierro y roca. Recibe 19 veces más radiación de su estrella que la Tierra del Sol. Los investigadores han utilizado las observaciones del conjunto de telescopios robóticos MEarth-South, situados en Cerro Tololo (Chile). Más información SINC
Nanopartículas de plata para hacer vinos que no provoquen alergia ni resaca 11/11/2015La resaca y las alergias que genera el vino a determinados consumidores podrían evitarse, en el futuro, gracias a un proyecto que impulsan científicos argentinos del Instituto de Ciencias Ambientales y Salud de la Fundación Prosama, conjuntamente con el Instituto Nacional de Vitivinicultura. Los sulfitos, que se emplean para inhibir el crecimiento de microorganismos indeseados, son la causa de esas complicaciones. “En estudios de laboratorio, logramos reducir en forma significativa la cantidad de sulfitos con procedimientos basados en nanotecnología”, indica a la Agencia CyTA el líder del proyecto, Jorge Herkovits, investigador del Conicet y presidente de la Fundación Prosama, con sede en Buenos Aires. Herkovits y su grupo emplearon nanopartículas de plata que recrean las propiedades de los sulfitos para la producción de vinos. Pero en virtud de que el valor máximo admitido de plata por la Organización Mundial de la Salud es de 0,1 miligramos por litro, el siguiente paso de los investigadores fue desarrollar dos estrategias para sacar esas nanopartículas del vino. El primer método consistió en agregar hierro a las nanopartículas de plata para, luego, extraerlas mediante un campo electromagnético, como si fuera un imán. Pero su coste a gran escala en bodegas es alto, explica Herkovits. Un enfoque alternativo, probado por el equipo, se basó en la formación de un complejo de las nanopartículas de plata con caolín (roca pulverizada de muy bajo coste), que permite su extracción después de la fermentación mediante un simple filtrado del vino. ”Incluso estamos evaluando la posibilidad de reutilizar el complejo y por último recuperar la plata cuando ya no resulte eficiente para producir vinos”, destaca Herkovitz. Más información CyTA
Un modelo estadístico predice los brotes de gripe a partir de las búsquedas 'online' 10/11/2015Un equipo científico, integrado por expertos en estadística, ingeniería e informática aplicada a la salud de la Universidad de Harvard y del Boston Children’s Hospital (EE UU), ha desarrollado un nuevo modelo que mejora los intentos previos del seguimiento en tiempo real de casos de gripe a partir de datos de búsquedas on line. Según explica a Sinc el investigador mexicano Mauricio Santillana, uno de los autores del estudio que se publica en la revista PNAS, “el nuevo modelo, denominado ARGO (siglas de Auto Regression with Google), “es capaz de predecir los brotes de gripe una o dos semanas antes que los métodos clínicos tradicionales”. Para ello, “utiliza información de brotes que han sucedido previamente, así como el número de personas que buscan términos relacionados a la gripe, por ejemplo: síntomas de la gripe, fiebre, o remedios para la gripe en el buscador Google”, indica el investigador. Santillana aclara que “la idea de utilizar las búsquedas de Google para predecir los brotes de enfermedades no es nueva. De hecho, este motor de búsqueda distribuía datos estimativos de la actividad de los brotes de gripe en diversas localidades y países a través de su proyecto Google Flu Trends, que fue cancelado en agosto de este año. Lo que es nuevo", agrega, "es la manera de combinar la información epidemiológica histórica y las búsquedas on line para producir estimaciones más precisas de los casos de gripe en la población”. ARGO también incorpora información de los Centros para el Control y la Prevención de Enfermedades de EE UU sobre la estacionalidad de los brotes de gripe pasados, así como de los cambios en los comportamientos de búsqueda on line a lo largo del tiempo. El autor destaca que la información epidemiológica, proporcionada por el nuevo método, “podría ser utilizada para mejorar la toma de decisiones de salud pública en tiempo real. Por ejemplo, para la distribución de personal y recursos hospitalarios en regiones que más lo necesiten ante brotes inesperados de esta enfermedad”. Además, el modelo es flexible, autocorregible, robusto y escalable, lo que le convierte en una potente herramienta que se podría utilizar para el seguimiento en tiempo real de otros eventos sociales en múltiples resoluciones temporales y espaciales, dicen los investigadores. Más información SINC
La NASA detecta 'zarcillos de fuego' en la atmósfera de Marte 06/11/2015Las eyecciones del Sol generan unos flujos iónicos en el campo magnético de Marte que pueden alcanzar los 5.000 km en el espacio. El espectacular fenómeno lo ha detectado la nave Maven de la NASA mientras analizaba la atmósfera marciana. El viento solar puede estar detrás de las perdidas de atmósfera en el planeta rojo. Esta semana la portada de la revista Science ilustra lo que ocurrió en el campo magnético de Marte cuando en marzo de este año fue bombardeado por una poderosa eyección de masa coronal del Sol. Las trayectorias de los iones que escapaban de la atmósfera marciana generaron una impactante imagen donde aparecen penachos y zarcillos –similares a los tallos en espiral de la vid o el guisante– que emanan, como fuego, del planeta rojo. Durante la eyección solar, los instrumentos de la nave que vigilaban el campo magnético marciano detectaron rotaciones magnéticas fuertes que expandían los zarcillos de fuego hasta 5.000 kilómetros de distancia en el espacio. Al mismo tiempo, los dispositivos que monitorizaban la ionización atmosférica observaron importantes picos y detectaron que los iones viajaban concentrados a lo largo de esos flujos del campo magnético. Se estima que su velocidad es mucho mayor –aproximadamente diez veces más– de la habitual. En concreto, se encontraron O2+ y CO2+, y los científicos quedaron sorprendidos al ver que los iones O+ ascendían en la atmósfera mucho más arriba de lo esperado. “Las observaciones y los modelos muestran un aumento en la tasa de escape de iones al espacio durante eventos como este”, señalan los investigdores, “así que la perdida de iones asociada a las eyecciones solares durante los comienzos de la historia del planeta pudo ser un factor importante en la evolución de su atmósfera”. Los datos sugieren que la atmósfera marciana se ha ido pelando a lo largo del tiempo por los efectos de las tormentas solares, ya que cuando estas se producen, aumenta la erosión de la capa gaseosa que rodea el planeta rojo. Los responsables de la NASA interpretan que este proceso "parece haber desempeñado un papel clave en la transición del clima de Marte desde un ambiente inicial cálido y húmedo, que pudo haber albergado vida en la superficie, hacia el que presenta hoy el árido y frío planeta". En el mismo número de Science se publican otros tres estudios con los datos de Maven. Uno de ellos se centra en una tenue aurora que apareció en el hemisferio norte, que se sumergía en la atmósfera hasta la cota más baja confirmada en cualquier aurora, unos 60 km. Un tercer trabajo aborda los resultados de dos ocasiones en las que Maven se sumergió en la atmósfera superior del planeta rojo para determinar la naturaleza de su termosfera e ionosfera. Durante estas exploraciones, detectó un importante gradiente de temperatura vertical, entre los 140 y 170 km. El cuarto trabajo analiza la detección de polvo en altitudes que oscilan entre 150 a 1.000 kilómetros, a pesar de que no existen procesos conocidos que puedan levantar concentraciones significativas de partículas desde una superficie planetaria hasta esas altitudes. Los autores piensan que es polvo de origen interplanetario. Más información SINC
Un estudiante de Ingeniería Aeroespacial gana el concurso Innovaciencia con un bastón electrónico para invidentes 04/11/2015Narciso Soto (18 años), que ha ideado un bastón electrónico para invidentes, ha sido el ganador de la tercera edición del certamen Innovaciencia, para menores de 30 años, organizado por el Consejo Superior de Investigaciones Científicas y la Fundación Española para la Ciencia y la Tecnología Soto ha conseguido el primer premio del concurso, dotado con 2.500 euros y una tablet, por su proyecto B-Compass, un bastón electrónico para invidentes con un sensor de distancia orientable que detecta la presencia de obstáculos. B-Compas supone una mejora frente al bastón tradicional y al perro guía porque facilita la autonomía de la persona invidente en entornos desconocidos. Asesorado por personal de la ONCE, el joven ganador ha diseñado este prototipo que avisa, mediante una vibración en el mango del bastón, de la presencia de obstáculos incluso en altura o de vehículos en un cruce, además de facilitar la orientación con tecnología GPS. Tanto el software como el hardware de este prototipo han sido realizados con herramientas libres (programas e impresora 3D open source), lo que abarata mucho los costes: entre 65 y 75 euros. Soto acaba de empezar Ingeniería Aeroespacial. Licenciada en Ingeniería Industrial, Susana Niclós (23 años) ha obtenido el segundo premio ex aequo por Smartplug, una red de enchufes programables y controlables de forma remota a través de Internet. Gracias a ella a es posible apagar o encender cualquier electrodoméstico, controlar la temperatura y humedad de un lugar o conectar alarmas antirrobo en la casa, entre otras aplicaciones. Smartplug está pensado para usarse de forma autónoma o como base para desarrollar nuevos proyectos y aplicaciones personalizadas, por lo que todo el código fuente es libre y ha sido comentado por la autora. Carlos Andrés Martínez Casais (25), también ingeniero industrial, ha desarrollado un cargador/transmisor de electricidad inalámbrico multidispositivo, que ha merecido también el segundo premio (dotado con 1.000 euros y una tablet para cada uno). El transmisor puede alimentar con electricidad distintos dispositivos (móvil, tablet, televisor, ventilador, lámparas, etc.) a una distancia de hasta dos metros sin utilizar cables, lo que permitiría, por ejemplo, cargar el móvil sin sacarlo del bolsillo o mientras se usa. Otra de las ventajas de este sistema es que transmite la electricidad a través de muros o tabiques, lo que resulta útil en entornos donde no existe una instalación eléctrica, como un jardín. Más información CSIC
El 2,4% de las citas científicas son negativas, revela un estudio con lenguaje natural 04/11/2015El número de veces que los artículos académicos son citados por publicaciones posteriores es uno de los indicadores consagrados por el tiempo que se utilizan para evaluar el nivel y la productividad académica. Pero no todas estas citas son positivas, y una investigación realizada con procesamiento de lenguaje natural demuestra que hasta una de cada 50 citas en una importante revista de inmunología eran básicamente críticas. Estas citas negativas pueden señalar limitaciones, inconsistencias o errores en el trabajo anterior. El estudio encontró que estas citaciones negativas eran más propensas a criticar trabajos muy leídos, y que las críticas se centraban en secciones específicas de los artículos. Las citas negativas tienden a provenir de eruditos que estaban cerca de los autores de los artículos originales en cuanto a disciplina académica y distancia social, pero al menos a 240 kilómetros de distancia geográfica. La investigación, realizada por autores del Instituto de Tecnología de Georgia (Atlanta, EE.UU.), la Universidad de Toronto (Canadá) y el Instituto de Tecnología de Massachusetts (Boston, EE.UU.), puede ser el primero en cuantificar y examinar estas citas negativas sistemáticamente. Los autores esperan ampliar su estudio a otras disciplinas, y creen que su trabajo, en última instancia, podría dar lugar a reexaminar cómo se utilizan las citas en el mundo académico. Según Alexander Oettl, profesor asistente de la Escuela Scheller de Negocios del Tecnológico de Georgia y uno de los tres co-autores del estudio, “las citas negativas realmente son diferentes de las citas objetivas”. Los investigadores comenzaron con 15.731 artículos que se habían publicado en el Journal of Immunology, la principal revista académica de inmunología. De esos artículos, extrajeron 76.355 citas, referidas a 146.891 artículos. Mediante un proceso manual, crearon una serie de citas que se utilizaron para entrenar a un programa de procesamiento de lenguaje natural, que clasificó el resto de las citas, ya fuera como objetivas o negativas. El proceso identificó 18.304 citaciones negativas, alrededor del 2,4 por ciento de las citas totales estudiadas. “La mayoría de estas citas negativas parecen discrepar con los “resultados” y la “discusión” de los documentos, por lo que realmente no están tratando de derribar la teoría”, dice Oettl en la nota de prensa del Georgia Tech. “Pueden estar tratando de limitar los resultados, apuntar incompatibilidades con otras investigaciones, señalar defectos estadísticos o corregir otros problemas.” En su estudio, los autores señalan la relativa rareza de estas citas negativas, y especulan que eso podría o bien mostrar un papel “limitado, sin influencia” de la crítica en la ciencia, o una renuencia a criticar. Más información DailSoftware
El deshielo de la Antártida occidental aumentará el nivel del mar en tres metros en 10.000 años 03/11/2015La placa de hielo de la Antártida occidental pierde cada vez más masa, un fenómeno que se aprecia especialmente en la zona del mar de Amundsen. Para confirmar la inestabilidad de esta región, un equipo de científicos alemanes ha desarrollado una serie de simulaciones por ordenador a largo plazo. Los resultados demuestran que en los próximos siglos o milenios su deshielo provocará un aumento de tres metros en el nivel del mar. Desde hace décadas, las observaciones por satélite muestran que los glaciares del mar de Amundsen están perdiendo masa a un ritmo acelerado y el deshielo de la capa de hielo de esa región puede haber alcanzado ya un punto de no retorno. Estudios anteriores habían demostrado la inestabilidad de este mar, al examinar su evolución a corto plazo con modelos numéricos. Un nuevo estudio, liderado por científicos del Potsdam Institute for Climate Impact Research (PIK, Alemania), da un paso más y ofrece una simulación a largo plazo. Los resultados confirman que la región es inestable. “Nuestros modelos por ordenador revelan que con la inestabilidad de la relativamente pequeña región de Amundsen, todo el área de la capa de hielo del oeste de la Antártida colapsará y contribuirá a un aumento global del nivel del mar de tres metros”, dice a Sinc Johannes Feldmann, primer autor del trabajo. Según los científicos, es posible que estemos presenciando el principio de un periodo de desintegración prolongada del hielo marino al océano. La retirada local de la capa de hielo y su adelgazamiento “es muy probable que continúe en el futuro”, apunta Feldmann, quien añade que las observaciones durante las próximas décadas confirmarán que estamos ante una retirada a gran escala de esta zona de la Antártida. Las simulaciones indican que la región se desestabilizará tras 60 años de niveles de deshielo actuales. Pero para los autores, esta zona ya es inestable, por lo que este umbral puede ser rápidamente superado. Y si esto ocurre, en los próximos siglos el aumento de tres metros puede ser inevitable. “El nivel del mar aumentará un metro durante los primeros 2.000 años. Alcanzaremos los eventuales tres dentro de unos 10.000 años”, afirma el científico alemán. Pero “puede ser más rápido”, advierte. Más información SINC
Santos Juliá: España es un Estado Federal sin instituciones federales 02/11/2015
España es un Estado federal que carece de instituciones federales, declara el historiador y ensayista Santos Juliá en una entrevista concedida a Tendencias21TV. También declara que un referéndum consultivo no necesita una reforma de la Constitución, sino una reforma de la Ley de Referéndum.
Añade que nuestro sistema político se ha federalizado a partir de la vigencia anterior de un Estado unitario y que ahora es preciso recorrer una trayectoria inversa: que las autonomías establezcan conjuntamente con el Estado central un acuerdo de futuro, para construir un proceso federal de abajo a arriba. Aunque no hay un marco institucional para este proceso, hacen falta políticos con la claridad y voluntad suficiente para crearlo y ponerlo en marcha. Señala Santos Juliá que el Estado español tal como se concibió en la transición está agotado, y demanda una reforma que debe incluir la reforma de los estatutos de autonomía. Comentando las elecciones catalanas, Santos Juliá destaca que el movimiento nacionalista ha fracasado en primera prueba electoral, ya que no ha alcanzado la mayoría. Considera que el movimiento nacionalista es una minoría muy fuerte que no puede proclamar la independencia, pero que sí está en condiciones de volver a la mesa de negociación con el Gobierno que salga de las elecciones de diciembre. Añade que proclamar la independencia sin una mayoría clara de votos, en una consulta en la que cuente una persona, un voto, es un dislate. La mayoría clara de votos se establece con el 60 por ciento de los votos, tal como se codificó cuando la experiencia de Canadá, y no consiste sólo en la mitad más uno. Siguen las turbulencias Santos Juliá se refiere también a la situación actual de España y considera que las elecciones de diciembre van a poner un punto y seguido al periodo de turbulencia que por primera vez ha experimentado nuestro sistema de partidos. Añade que vamos a tener un parlamento mucho más vivo en el que las minorías que hay serán capaces de convertirse en mayorías y tendrán que hacer política, convirtiendo el parlamento en su escaparate, entrando en otra forma de gobernar. Para Santos Juliá, los procesos son largos: “yo creo que hemos tenido un gran periodo de turbulencias, motivado por una manera de gobernar que llegó a su agotamiento y que coincide con una crisis económica para la que no había recursos para contestar” explica. “Cuando se actúa en democracia se toman unos caminos y se dejan otros, pero siempre surgen caminos posibles. Por todo ello, creo que estamos ante un cambio, pero ni siquiera las revoluciones son origen de un nuevo mundo, no hay nuevos amaneceres, no hay punto final”. T21
Un programa informático encuentra fragmentos 'fósiles' de genes en el genoma de levaduras y gusanos 02/11/2015Científicos del Centro Andaluz de Biología del Desarrollo (CABD, centro mixto Universidad Pablo de Olavide-CSIC-Junta de Andalucía) han desarrollado un programa bioinformático, AnABlast, que identifica fragmentos “fósiles” de genes en los genomas, lo que ayudará a entender la historia evolutiva de cada genoma. Se conocen ya tantos millones de genes, que una forma práctica para identificarlos en un nuevo genoma es buscar la existencia de genes parecidos en otros. Pero cuando hablamos de genes muy diferenciados, sin parecido obvio con otros, o genes donde su comienzo y final no es fácil de delimitar, su búsqueda es difícil y con frecuencia estos genes más complejos y novedosos pasan desapercibidos. Los investigadores Juan Jiménez y Antonio Pérez-Pulido han desarrollado una nueva estrategia in sílico para encontrar genes y fragmentos “fósiles” de genes en los genomas, incluso cuando esos genes o fragmentos no tengan parecido con otros genes conocidos, o estén tan fragmentados que no se identifiquen inicio y fin de su secuencia codificadora. La estrategia es parecida a la que se usa para descifrar mensajes codificados de los espías. Aunque no se sepa lo que significa, una pequeña secuencia que se encuentra con más frecuencia que el azar en un texto posiblemente es una secuencia que significa algo, y esa idea, aplicada al análisis de la secuencia de un genoma, es lo que le ha permitido a los autores desarrollar un programa bioinformático, que discrimina dónde hay información con significado biológico simplemente por su alta frecuencia en las bases de datos respecto a la frecuencia por azar. Así, AnABlast permite discernir regiones con genes (que codifican proteínas) de las que no. Los autores han aplicado el nuevo método al genoma completo de la levadura de fisión, y aun siendo uno de los organismos modelo mejor estudiados, el análisis con AnABlast les ha permitido identificar varios genes nuevos que pasaron desapercibidos en los procedimientos convencionales de anotación de genes. Incluso han encontrado fragmentos “fósiles” provenientes de otros genomas, o de reordenaciones ancestrales, algo que sin duda ayuda a entender la historia evolutiva de cada genoma. Además de la levadura, han demostrado que AnABlast es igualmente útil en genomas de organismos superiores como el del gusano C. elegans, lo que pronto les llevará a realizar el análisis AnaBlast del genoma humano. Más información UPO
Las noticias sobre fármacos contra el cáncer abusan de los superlativos 30/10/2015El uso de superlativos para describir fármacos contra el cáncer en los artículos de noticias, como "gran avance", "revolucionario", "milagro", o en otros términos grandilocuentes, es habitual incluso cuando aún no se han aprobado, no hay datos clínicos o no han mostrado beneficios globales, según un artículo publicado en línea por la revista JAMA Oncology. La omisión del contexto médico o el uso de descripciones infladas puede dar lugar a malentendidos entre los lectores. Vinay Prasad, de la Universidad de Ciencia y Salud de Oregón (Portland, EE.UU.) y sus coautores examinaron el uso de descriptores modestos y superlativos en artículos de noticias con respecto a medicamentos contra el cáncer. Los autores buscaron 10 superlativos (entre ellos "cura", "transformador", "innovador" y "maravilla") unidos a la expresión "medicamento contra el cáncer" en un buscador de noticias de Google entre el 21 y el 25 de junio de este año. Los autores encontraron 94 artículos de 66 agencias de noticias con 97 superlativos que satisfacen los criterios del estudio, referidos a 36 fármacos concretos. La mitad de ellos todavía no habían recibido la aprobación de la Food and Drug Administration de Estados Unidos, ni siquiera para una indicación. Para 5 de los 36 fármacos se utilizaron superlativos en ausencia de datos clínicos con humanos. La mayoría de los superlativos fueron utilizados por los periodistas (55 por ciento); médicos (27 por ciento); expertos de la industria (9 por ciento); pacientes (8 por ciento) y un miembro del Congreso (1 por ciento). Más información JAMA/T21
Un modelo basado en redes neuronales predice inundaciones con 24 horas de antelación 29/10/2015El grupo de investigación Modelización de la Atmósfera y Radiación Solar (Matras) de la Universidad de Jaén ha desarrollado un sistema que predice el caudal de un río con 24 horas de anticipación para prevenir inundaciones. El modelo define la cantidad de agua del cauce mediante redes neuronales artificiales y se ha materializado ya en una herramienta de alerta temprana que utilizan los servicios de emergencias. La novedad es la introducción de los datos meteorológicos, ya que la mayoría de los estudios previos basan sus predicciones en la medición del caudal de río en zonas anteriores al tramo que se analiza y los desembalses de pantanos. “Nosotros introducimos la predicción de lluvia en toda la cuenca. Para ello, usamos el modelo americano: el Weather Research and Forecasting debidamente parametrizado, que permite llegar a resoluciones de 1 kilómetro", explica el responsable de la investigación, Joaquín Tovar. Los investigadores han aplicado las Redes Neuronales Artificiales, que usan como entradas la predicción de precipitaciones basada en datos meteorológicos y en los proporcionados por el Servicio Automático de información Hidrológica. El método está inspirado en la forma en que funciona el sistema nervioso de los animales, donde existe un conjunto de datos de entrada, que se interconectan entre sí para producir un estímulo de salida. En este modelo, los expertos consideran como parámetros de entrada la predicción meteorológica, la precipitación en los días anteriores y los desembalses de los pantanos en tramos anteriores a la zona de análisis. Tras procesar todos estos aspectos, el sistema ofrece una información de salida: el caudal en un tramo en un momento determinado, un nivel de alerta y la predicción del alcance de la inundación en caso de que ésta llegara a producirse. Los científicos lo han aplicado a la cuenca del Guadalquivir, con todos los aportes hídricos procedentes de la Sierra de Segura, Sierra Morena y los pantanos que vierten a la cuenca antes de la localidad de Marmolejo (Jaén), una zona que ha sufrido repetidas inundaciones. Más información Universidad de Jaén
Dail Software, dos años analizando textos de forma automática 28/10/2015Deducir del discurso de un político qué temas le interesan más; analizar Twitter en busca de propaganda a favor de la bulimia; o estudiar la evolución de la sociedad a partir de los discursos del Premio Cervantes. Son algunas de las aplicaciones más visibles de los programas de ingeniería lingüística de Dail Software, una spin-off de la Universidad Politécnica de Madrid (UPM) que se abre camino en el pujante sector del lenguaje natural, y a la que dedica un reportaje Cinco Días. Hacer sistemas que entiendan lo que decimos; que busquen información de manera inteligente, varios pasos más allá que los buscadores actuales; que respondan preguntas independientemente de la lengua en la cual se encuentre la respuesta: es decir, el tratamiento automático e inteligente del multilingüismo. De todo eso se ocupan empresas como Dail. El proyecto nació en 2011, al obtener el tercer premio del concurso Actúa UPM, y cristalizó en 2013. Dail ha obtenido 563.000 euros en dos rondas de financiación, la última hace muy poco. Su proyecto más importante es una herramienta de email multilingüe para la interacción mediante correo electrónico entre personas de diferentes lenguas, permitiendo el intercambio de mensajes de forma automática y de calidad. Dail Sostware, miembro de eGauss Holding, es patrocinador principal de la Cátedra Unesco en Tecnologías Lingüísticas, TecLin, encargada de crear un Máster Internacional en Ingeniería lingüística. La Cátedra, de la UPM, está conectada con varias universidades de Sudamérica, y favorece además la enseñanza infantil en lenguas maternas en aquellos países con lenguas en riesgo de desaparición. Más información Redacción T21
Una ecografía del tamaño del cuello del útero predice el parto con una semana de antelación 28/10/2015Una prueba habitualmente utilizada para detectar posibles partos prematuros podría ayudar a afinar la estimación de la fecha en la que las madres darán a luz. Según una investigación, liderada por el Hospital Universitario Thomas Jefferson (Philadelphia, EE UU), la medición de la longitud del cérvix uterino permitiría establecer, con bastante precisión, si las madres darán a luz en la semana siguiente a la realización de la prueba. "La medición de la longitud del cuello del útero con una ecografía alrededor de las semanas 37 a 39 puede darnos una mejor idea de si una madre va a dar a luz pronto o no", explica el autor principal del estudio, Vincenzo Berghella, director de Medicina Materno-Fetal en este hospital. Según los autores, cuando el cuerpo de una mujer se prepara el nacimiento, se producen una serie de cambios. El cuello del útero, que ha impedido que el bebé descienda por el canal de parto durante los nueve meses de embarazo, empieza a ablandarse. Cambia su forma habitual de "helado de cono", a uno corto, cuya cima queda comprimida contra la curva del útero. Cuando este proceso empieza demasiado temprano, marca el comienzo de un parto prematuro. Hasta ahora, la medición del cuello del útero se había utilizado para ayudar a detectar a las mujeres con un alto riesgo de parto prematuro –cuanto más corto el cuello uterino, más probabilidades de que el parto sea inminente–. Dado que este procedimiento es considerado el método de referencia para detectar este tipo de alumbramientos, numerosos científicos habían investigado si se podría utilizar para ayudar a predecir también la fecha del nacimiento en los embarazos que llegan a término. Los resultados eran dispares: algunos estudios mostraban un pobre valor predictivo y otros una mayor capacidad de precisión. Los investigadores reunieron datos de cinco estudios prospectivos que incluían 735 mujeres con embarazos de un solo hijo y que tuvieron a sus bebés en la posición cabeza abajo adecuada. Al observar los resultados, descubrieron que cuando el cuello uterino medía más de 30 milímetros, la mujer tenía un menos de un 50% de posibilidades de dar a luz en un plazo de siete días. Sin embargo, cuando el cuello uterino medía 10 milímetros o menos, las probabilidades aumentaban hasta el 85%, con lo cual era bastante plausible que el alumbramiento se produjera en una semana. Más información Sinc
¿Cómo suena la arquitectura pasada, presente y futura? 28/10/2015 UPV
El comportamiento social modula el nivel de testosterona 27/10/2015La testosterona ha sido considerada una hormona eminentemente masculina, cuya presencia estaba determinada por factores innatos. Sin embargo, un estudio, liderado por Universidad de Michigan (EE UU), indica que la influencia cultural que ha llevado tradicionalmente al sexo masculino al ejercicio del poder y ha relegado al femenino a un segundo plano ha podido influir en la existencia de niveles de testosterona más altos en los hombres. El trabajo, publicado en la revista PNAS, examina cómo los niveles de testosterona cambian en comportamientos asociados tradicionalmente con el sexo masculino, como la competición y el ejercicio del poder. Para ello, el equipo científico, dirigido por Sari M. van Anders, analizó el nivel hormonal de 41 participantes –que además eran actores profesionales– antes y después de realizar un monólogo que representaba una interacción laboral en la que se realizaba una ostentación de poder. El guion del monólogo fue escrito por un director de teatro con el apoyo de los autores del estudio de manera que el texto permitiera actuaciones enmarcadas en diferentes géneros. Se solicitó a los actores, hombres y mujeres, que representaran el monólogo dos veces –una en un estilo masculino y otra en un estilo femenino– para discernir si los cambios en los niveles de testosterona se debían a la demostración de poder en sí mismo o al estilo de actuación interpretando a un hombre o a una mujer. Los autores descubrieron que al realizar el monólogo los niveles de testosterona se elevaban en las mujeres, independientemente del sexo al que encarnaran durante la representación. Según los científicos, estos resultados sugieren que el comportamiento competitivo exhibido en el monólogo pudo haber modulado la testosterona más que la caracterización masculina, y que las normas sociales que fomentan comportamientos diferentes entre hombres y mujeres pueden contribuir a la existencia de niveles más altos de testosterona en los varones. Los autores señalan que anteriormente la diferencia en los niveles de testosterona era concebida ampliamente como una diferencia de sexo, es decir, que su mayor o menor presencia reflejaba masculinidad y feminidad. En conjunto, esto llevaba a una caracterización de la testosterona como la esencia de la masculinidad, fija, invariable y determinada únicamente por factores innatos. Sin embargo, este trabajo hace hincapié en la existencia de la neuroplasticidad y la modulación social. “Claramente, la testosterona responde al contexto social, pero siguen existiendo enormes brechas en la comprensión de cómo la plasticidad neuroendocrina está modulada por las normas sociales, especialmente por las relacionadas con el género”, concluyen. Más información Sinc
Hallan micotoxinas que pueden dañar la salud en cinco muestras de cafés comercializados en España 26/10/2015Las micotoxinas son una familia de compuestos producidos por hongos filamentosos, como Aspergillus o Fusarium, que pueden causar enfermedades y problemas para la salud. Ahora, investigadores de la Universidad de Valencia han analizado su presencia en 103 muestras comerciales de café recogidas en diversos supermercados de su ciudad. Los resultados, que publica la revista Food Control, confirman la presencia de fumonisinas, aflatoxinas, tricotecenos y micotoxinas emergentes en concentraciones que oscilan entre 0,10 y 3.570 microgramos por kilogramo (μg/kg). Estas sustancias pueden llegar a ser cancerígenas, hepatotóxicas y afectar al sistema hormonal e inmunológico, pero no se puede determinar si los niveles encontrados son preocupantes porque en la actualidad aún no se ha realizado la evaluación del riesgo para la población y, por tanto, apenas existe normativa al respecto. “La única micotoxina legislada es la ocratoxina A, que hemos detectado en bajas concentraciones en el café, aunque en cinco de las muestras se excedían los límites máximos permitidos”, explica a Sinc Emilia Ferrer, una de las autoras. La normativa europea fija un contenido máximo de ocratoxina A –asociada a nefropatías y tumores uroteliales en humanos– en los productos alimenticios de 5 μg/kg en el café tostado en grano o molido, y de 10 μg/kg para el café soluble o instantáneo. Las cinco muestras que superaron esos valores fueron dos de café descafeinado (6,20 y 9,30 μg/kg), otras dos de café en cápsulas con cafeína (6,91 y 11,43 μg/kg), y una de café en cápsulas descafeniado (32,40 μg/kg), que superó más de seis veces el límite de la normativa. “La ausencia de legislación en el café para el resto de las micotoxinas detectadas, sus efectos tóxicos y los valores de concentración obtenidos hacen necesario prestar especial atención a estos contaminantes en un producto tan consumido”, apunta la doctora Ferrer. La investigadora también considera necesario “estudiar la influencia de los diferentes tratamientos tecnológicos, que se aplican en la elaboración del café sobre el contenido de las micotoxinas en el producto final, para evaluar la exposición de la población, así como analizar los procesos de producción y secado de este producto para evitar o disminuir la contaminación”. En la realización de los análisis, los investigadores han utilizado una metodología denominada 'cromatografía líquida acoplada a espectrometría de masas en tándem', donde se combina una técnica de separación de moléculas a otra para identificarlas según su peso. En la actualidad estudian la posible reducción o interacción de las micotoxinas con los componentes del café y otros alimentos, porque no todas se comportan igual, además de observar cómo afectan los distintos tratamientos tecnológicos, como las temperaturas y los tiempos, por ejemplo. Más información SINC
Alimentos impresos en 3D para personas con problemas para masticar 26/10/2015El proyecto financiado con fondos europeos Performance ha presentado su propuesta de futuro, consistente en comidas impresas en 3D destinadas a personas mayores para las cuales resulta difícil masticar y tragar, es decir, con disfagia, a causa, por ejemplo, de ictus o demencia. A diferencia de las dietas actuales para estas personas, consistentes en purés y alimentos pretriturados y que reducen el apetito y conducen a deficiencias nutritivas, la propuesta pasa por reproducir el aspecto y el sabor de la comida real y la adecúa a las necesidades de cada paciente. El equipo del proyecto explica que "los alimentos triturados y colados se devuelven a su forma original, adquiriendo así la misma textura y aspecto, pero con ventajas sanitarias". Los alimentos se enriquecen con nutrientes específicos en función del tamaño, el peso, el sexo y las deficiencias de cada paciente, y pueden ajustarse para garantizar una dieta equilibrada. Este proceso está completamente automatizado gracias a un algoritmo informático. El sistema vigila el estado nutricional de cada paciente y enriquece de forma automática las comidas programadas semanalmente. "La comida triturada debe quedar firme tras su impresión pero lo suficientemente líquida como para que salga por los cabezales", explica Pascal de Grood, fundador y director ejecutivo de Foodjet, empresa asociada al proyecto. "Empleamos una tecnología basada en la impresión por chorro. Un agente gelificante da forma a la comida triturada y colada". El sistema se sirve únicamente de ingredientes naturales y un texturizador también natural. Para evitar los puntos fríos y calientes que surgen al calentar la comida en el microondas, han desarrollado un "envase activo" consistente en una bandeja hendida con perforaciones reflectoras de microondas situadas por encima y por debajo del recipiente. La semana pasada se llevaron a cabo varias catas en residencias para la tercera edad. El 54 % de los encuestados calificó la textura de la comida como buena, el 79 % consideró que las comidas estaban calentadas de un modo homogéneo y el 43 % optaría por una comida de Performance en caso de enfrentarse a dificultades para tragar o masticar. Matthias Kück, coordinador del proyecto, reconoce que la impresión de alimentos en 3D aún debe evolucionar para poder ser viable comercialmente. Esto implica que podría pasar cierto tiempo antes de poner en marcha la tecnología al completo, pero cada uno de los productos desarrollados se podrá aprovechar muy pronto por separado. Más información Cordis
La serotonina regenera las motoneuronas de los peces cebra tras una lesión medular 23/10/2015Investigadores de la Universidad de Santiago de Compostela han demostrado que, en el pez cebra, la serotonina promueve la regeneración de motoneuronas tras una lesión medular. Los resultados se publican en Cell Reports. Antón Barreiro, del departamento de Biología Celular de la USC, junto con investigadores de la Universidad de Edimburgo (Escocia), trabaja en el estudio de la impresionante capacidad de regeneración espontánea que muestran los peces cebra tras una lesión medular. A diferencia de los humanos y del resto de mamíferos, el pez cebra adulto es capaz de recuperar la natación de forma natural pocas semanas después de sufrir una lesión medular completa, algo que en el caso de los humanos provoca la pérdida irreversible de la función locomotora y sensorial por debajo del lugar de la lesión. Más allá de la estabilización de los pacientes y terapias de rehabilitación, de momento no existe una terapia efectiva que promueva la regeneración y recuperación funcional. “Nuestra idea de trabajo", explica Barreiro, "es descubrir qué vías moleculares se activan e intervienen en el proceso de regeneración tras una lesión medular en el pez cebra”. Los investigadores han demostrado que la serotonina, conocida por su papel como neurotransmisor en el sistema nervioso, promueve tanto el desarrollo embrionario de motoneuronas espinales como la regeneración de estas tras una lesión medular en adultos de pez cebra. Las motoneuronas son las neuronas de la medula espinal que inervan la musculatura para controlar su contracción y relajación. En humanos, enfermedades degenerativas o daños traumáticos medulares provocan la muerte de estas neuronas y, por tanto, la pérdida de la capacidad de controlar la musculatura corporal. “Estudios previos demostraron que en el pez cebra adulto se generaban nuevas motoneuronas tras una lesión medular, pero nunca en humanos adultos. Ahora nosotros evidenciamos el importante papel de la serotonina en la proliferación de las células madre que dan lugar a nuevas motoneuronas en la médula espinal, lo que da pie al desarrollo futuro de terapias que promuevan la producción o supervivencia de esas motoneuronas en humanos”, concluye Barreiro. Más información USC/SINC
|
|
||||||
|