Los datos del genoma invadirán el mundo en 2025. Fuente: Wikimedia Commons.
¿Quién está a punto de convertirse en el mayor animal del bosque Big Data? Un grupo de expertos en matemáticas y computación han llegado a lo que, dicen, es una respuesta clara. No es YouTube o Twitter, redes sociales que engullen cantidades impresionantes de ancho de banda. Ni tampoco la astronomía ni la física de partículas, dos de las ciencias de la más alta tecnología que han etado durante mucho tiempo a la vanguardia de la generación y procesamiento de datos.
No, la bestia alfa del bosque Big Data, dicen los expertos en PLoS Biology, resulta ser la genómica -una ciencia que no existía hace 15 años y sólo ahora está empezando a salir de los estudios de campo para generar más bytes electrónicos por año que ningún otro ámbito.
Reconocer esta realidad, dicen, es el primero paso de un gran desafío: encontrar la manera de capturar, almacenar, procesar e interpretar toda esa información biológica codificada en el genoma, transformada en ceros y unos sin sentido.
"Durante mucho tiempo, la gente ha utilizado el adjetivo "astronómico" para hablar de las cosas que son realmente, realmente enormes", dice Michael Schatz, profesor asociado del Centro de Biología Cuantitativa Simons del Cold Spring Harbor Laboratory (CSHL, Nueva York, EE.UU.) y co-autor del artículo de PLoS, en la nota de prensa del centro. "Pero al señalar el increíble ritmo de crecimiento de la generación de datos en las ciencias biológicas, mis colegas y yo creemos que podríamos tener que empezar a llamar a las cosas verdaderamente inmensas "genómicas".
Todos los campos con los que se compara, de las redes sociales a Internet o la astronomía, están generando enormes cantidades de datos electrónicos - del orden de decenas a cientos de petabytes anuales. Un petabyte son mil billones de bytes - 10 seguido de 15 ceros; es 1.000 bytes veces más que un terabyte, la cantidad de almacenamiento que podría tener en su ordenador personal.
Y, dice el equipo -que también se compone de una serie de expertos en datos de la Universidad de Illinois en Champaign-Urbana-, todos los campos están en rápidas curva de crecimiento. YouTube genera la mayor cantidad de datos en este momento, alrededor de 100 petabytes al año.
Pero la genómica no se queda atrás y está creciendo mucho más rápidamente. Al ritmo actual, la cantidad de datos de genómica producidos diariamente se duplicará cada 7 meses. En 2025, esa cifra oscilará entre 2 y 40 exabytes por año, estima el equipo, en función de la tasa de duplicación. Un exabyte es el equivalente a 1.000 petabytes, aproximadamente un millón de veces más datos de los que puede almacenar usted en su ordenador personal.
La genómica
Schatz y sus colegas describen la genómica como una "bestia de cuatro cabezas." Se refieren a los problemas individuales de adquisición de datos, almacenamiento, distribución y análisis. Como los datos que fluyen a través de Internet, los datos biológicos que son la materia prima de la genómica están muy distribuidos. Eso significa que se generan y consumen en muchos lugares. A diferencia de los datos de Internet, sin embargo, que tienen un formato de acuerdo con unos protocolos estándar, los datos genómicos se compila en muchos formatos diferentes, un hecho que pone en peligro su inteligibilidad y utilidad a nivel global.
Este problema crece en importancia a medida que aumenta la cantidad de datos. Como explica Schatz, gran parte del gran torrente de datos de biología tendrá forma de secuencias del genoma humano, así como la información médica relacionada que también depende de la tecnología de secuenciación.
Si todos los datos de secuencias humanas generados hasta ahora fueron puestos en un solo lugar -cerca de 250.000 secuencias- requerirían unos 25 petabytes de espacio de almacenamiento. Ese es un problema manejable, dice Schatz. Pero en 2025, el equipo espera que 1.000 millones de personas tengan sus genomas completos secuenciados (en su mayoría, gente de naciones relativamente ricas). Esto plantea un problema de almacenamiento de nivel exabyte.
En algún momento, las secuencias completas pueden no tener que ser almacenadas. En la física de partículas, los datos se leen y se filtran a medida que se genera, minimizando en gran medida los requisitos de almacenamiento. Pero este análisis no es del todo práctico para la información biológica, principalmente debido a la cuestión de qué secuencias se puede prescindir sin problemas es mucho más difícil de decidir. Es concebible que tengan que preservarse mil millones de conjuntos de datos individuales.
No, la bestia alfa del bosque Big Data, dicen los expertos en PLoS Biology, resulta ser la genómica -una ciencia que no existía hace 15 años y sólo ahora está empezando a salir de los estudios de campo para generar más bytes electrónicos por año que ningún otro ámbito.
Reconocer esta realidad, dicen, es el primero paso de un gran desafío: encontrar la manera de capturar, almacenar, procesar e interpretar toda esa información biológica codificada en el genoma, transformada en ceros y unos sin sentido.
"Durante mucho tiempo, la gente ha utilizado el adjetivo "astronómico" para hablar de las cosas que son realmente, realmente enormes", dice Michael Schatz, profesor asociado del Centro de Biología Cuantitativa Simons del Cold Spring Harbor Laboratory (CSHL, Nueva York, EE.UU.) y co-autor del artículo de PLoS, en la nota de prensa del centro. "Pero al señalar el increíble ritmo de crecimiento de la generación de datos en las ciencias biológicas, mis colegas y yo creemos que podríamos tener que empezar a llamar a las cosas verdaderamente inmensas "genómicas".
Todos los campos con los que se compara, de las redes sociales a Internet o la astronomía, están generando enormes cantidades de datos electrónicos - del orden de decenas a cientos de petabytes anuales. Un petabyte son mil billones de bytes - 10 seguido de 15 ceros; es 1.000 bytes veces más que un terabyte, la cantidad de almacenamiento que podría tener en su ordenador personal.
Y, dice el equipo -que también se compone de una serie de expertos en datos de la Universidad de Illinois en Champaign-Urbana-, todos los campos están en rápidas curva de crecimiento. YouTube genera la mayor cantidad de datos en este momento, alrededor de 100 petabytes al año.
Pero la genómica no se queda atrás y está creciendo mucho más rápidamente. Al ritmo actual, la cantidad de datos de genómica producidos diariamente se duplicará cada 7 meses. En 2025, esa cifra oscilará entre 2 y 40 exabytes por año, estima el equipo, en función de la tasa de duplicación. Un exabyte es el equivalente a 1.000 petabytes, aproximadamente un millón de veces más datos de los que puede almacenar usted en su ordenador personal.
La genómica
Schatz y sus colegas describen la genómica como una "bestia de cuatro cabezas." Se refieren a los problemas individuales de adquisición de datos, almacenamiento, distribución y análisis. Como los datos que fluyen a través de Internet, los datos biológicos que son la materia prima de la genómica están muy distribuidos. Eso significa que se generan y consumen en muchos lugares. A diferencia de los datos de Internet, sin embargo, que tienen un formato de acuerdo con unos protocolos estándar, los datos genómicos se compila en muchos formatos diferentes, un hecho que pone en peligro su inteligibilidad y utilidad a nivel global.
Este problema crece en importancia a medida que aumenta la cantidad de datos. Como explica Schatz, gran parte del gran torrente de datos de biología tendrá forma de secuencias del genoma humano, así como la información médica relacionada que también depende de la tecnología de secuenciación.
Si todos los datos de secuencias humanas generados hasta ahora fueron puestos en un solo lugar -cerca de 250.000 secuencias- requerirían unos 25 petabytes de espacio de almacenamiento. Ese es un problema manejable, dice Schatz. Pero en 2025, el equipo espera que 1.000 millones de personas tengan sus genomas completos secuenciados (en su mayoría, gente de naciones relativamente ricas). Esto plantea un problema de almacenamiento de nivel exabyte.
En algún momento, las secuencias completas pueden no tener que ser almacenadas. En la física de partículas, los datos se leen y se filtran a medida que se genera, minimizando en gran medida los requisitos de almacenamiento. Pero este análisis no es del todo práctico para la información biológica, principalmente debido a la cuestión de qué secuencias se puede prescindir sin problemas es mucho más difícil de decidir. Es concebible que tengan que preservarse mil millones de conjuntos de datos individuales.
Servidores y programas
El problema no es realmente la velocidad, que crecerá rápidamente y de manera previsible, dice Schatz, sino en encontrar la manera de alinear y representar diferentes genomas para que puedan ser comparados - y comparados de maneras muy inteligentes y eficientes. Los investigadores creen que mediante la comparación, surgirán patrones, igual que los que descubrió Mendel hace 150 años.
En esa línea, científicos de la Universidad de Missouri han creado un servicio gratuito en línea, RNAMiner, para manejar grandes conjuntos de datos que podrían conducir a resultados más rápidos en el estudio de la genómica de plantas y animales.
El sitio web fue creado para ser fácil de usar y permite a los usuarios cargar los datos, analizar hasta cinco variables en los genomas completos de cinco especies: humano, ratón, Drosophila melanogaster (un tipo de mosca), TAIR10 Arabidopsis (una pequeña planta de flores) y Clostridium perfringens (un tipo de bacteria). Los datos genómicos de cualquier especie son bienvenidos, para que crezca la base de datos.
En promedio, dos gigabytes de datos requieren aproximadamente 10 horas para ser procesados y analizados. La mayoría de los investigadores obtienen resultados en un par de horas, aseguran sus creadores en la nota de prensa de la universidad.
Para usar la plataforma no es necesario saber computación, señalan. Sólo hay que cargar los archivos y seleccionar varios parámetros.
Por su parte, científicos de MIT (Boston, Massachusetts) han diseñado un sistema para que la recuperación de datos de las memorias flash (como las de los USB) sea tan eficientes en velocidad como la de las memorias RAM internas de los ordenadores.
El problema no es realmente la velocidad, que crecerá rápidamente y de manera previsible, dice Schatz, sino en encontrar la manera de alinear y representar diferentes genomas para que puedan ser comparados - y comparados de maneras muy inteligentes y eficientes. Los investigadores creen que mediante la comparación, surgirán patrones, igual que los que descubrió Mendel hace 150 años.
En esa línea, científicos de la Universidad de Missouri han creado un servicio gratuito en línea, RNAMiner, para manejar grandes conjuntos de datos que podrían conducir a resultados más rápidos en el estudio de la genómica de plantas y animales.
El sitio web fue creado para ser fácil de usar y permite a los usuarios cargar los datos, analizar hasta cinco variables en los genomas completos de cinco especies: humano, ratón, Drosophila melanogaster (un tipo de mosca), TAIR10 Arabidopsis (una pequeña planta de flores) y Clostridium perfringens (un tipo de bacteria). Los datos genómicos de cualquier especie son bienvenidos, para que crezca la base de datos.
En promedio, dos gigabytes de datos requieren aproximadamente 10 horas para ser procesados y analizados. La mayoría de los investigadores obtienen resultados en un par de horas, aseguran sus creadores en la nota de prensa de la universidad.
Para usar la plataforma no es necesario saber computación, señalan. Sólo hay que cargar los archivos y seleccionar varios parámetros.
Por su parte, científicos de MIT (Boston, Massachusetts) han diseñado un sistema para que la recuperación de datos de las memorias flash (como las de los USB) sea tan eficientes en velocidad como la de las memorias RAM internas de los ordenadores.
Referencia bibliográfica:
Zachary D. Stephens, Skylar Y. Lee, Faraz Faghri, Roy H. Campbell, Chengxiang Zhai, Miles J. Efron, Ravishankar Iyer, Michael C. Schatz, Saurabh Sinha, Gene E. Robinson: Big Data: Astronomical or Genomical? PLOS Biology, 2015. DOI: 10.1371/journal.pbio.1002195
Zachary D. Stephens, Skylar Y. Lee, Faraz Faghri, Roy H. Campbell, Chengxiang Zhai, Miles J. Efron, Ravishankar Iyer, Michael C. Schatz, Saurabh Sinha, Gene E. Robinson: Big Data: Astronomical or Genomical? PLOS Biology, 2015. DOI: 10.1371/journal.pbio.1002195