Omitir los comandos de cinta
Saltar al contenido principal
Inicio de sesión
Universidad EAFIT
Carrera 49 # 7 sur -50 Medellín Antioquia Colombia
Carrera 12 # 96-23, oficina 304 Bogotá Cundinamarca Colombia
(57)(4) 2619500 contacto@eafit.edu.co

Supercomputadores, ‘laboratorios’ para procesar la ciencia

​​​​​​Con la aparición de la computación de alto rendimiento, la comunidad científica hoy puede realizar millones de operaciones por segundo que antes tardaban años. Aunque potencias como China y los Estados Unidos lideran este campo, Colombia también aporta con iniciativas en EAFIT, Uniandes y la Universidad Industrial de Santander. El llamado es a poner esta infraestructura al servicio de la investigación en el país.


En el Centro de Computación Científica Apolo de EAFIT: Juan Guillermo Lalinde, su director científico, y Juan David Pineda, su director técnico.

Andrés Felipe Giraldo Cerón 
Colaborador / Tema especial​

Investigar el desarrollo de un medicamento para tratar la Leishmaniasis le planteó un reto al Programa de Estudios y Control de Enfermedades Tropicales (Pecet) de la Universidad de Antioquia: evaluar la interacción de 600 mil moléculas y 4.300 proteínas.

Procesar tal cantidad de información en laboratorios tomaría cerca de 120 años, calcula el científico Carlos Muskus, coordinador de la Unidad de Biología Molecular y Computacional del Pecet. Hacerlo en el Centro de Computación Científica Apolo de la Universidad EAFIT, no solo redujo la muestra a unos pocos compuestos, sino que el cálculo computacional se logró ejecutar en cerca de dos años. Para finales de 2013 la tarea estuvo realizada.

Lo anterior es un ejemplo del papel que juega la computación de alto rendimiento en las investigaciones científicas actuales para procesar cantidades inmensas de información y realizar millones de operaciones por segundo, con el fin de acortar los tiempos de muchos estudios, explica Juan David Pineda, director técnico del Centro de Computación Científica Apolo de EAFIT.

Este es el propósito de los supercomputadores, máquinas con una capacidad de cálculo muy superior al resto que utiliza circuitos integrados y “procesadores como los que tenemos en los ordenadores de casa, pero en gran cantidad y conectados entre ellos para poder multiplicar su potencia”, según el Centro Nacional de Supercomputación de Barcelona (España).

De ahí que actualmente los supercomputadores operen bajo el modelo de servidores clúster, una noción que el Centro de Supercomputación de San Diego (Estados Unidos) define como muchos computadores pequeños que trabajan como un “ejército de hormigas”, donde cada unidad se reparte labores de procesamiento de datos.

La unión de cientos de computadores pequeños es lo que hace a un supercomputador tan poderoso. Por ejemplo, el supercomputador Apolo de EAFIT cuenta con 95 servidores, cada uno con múltiples núcleos o procesadores, lo que permite que en pocos minutos procese la misma cantidad de información que le tomaría semanas o meses a un equipo de escritorio.

Clasificación Top 500


La utilidad de los supercomputadores abarca un amplio espectro que va desde estudios militares, balísticos y nucleares, hasta trabajos médicos, climatológicos, sociales, poblacionales o relacionados con la búsqueda de energías limpias.
ubicacion.png

Así se desprende de Top500, una clasificación elaborada por las universidades de Mannheim (Alemania) y de Tennessee (Estados Unidos). Este proyecto mide y recopila año tras año las principales características de los equipos de alto desempeño del mundo, lo que configura las condiciones de una carrera informática que se asemeja, guardadas las proporciones, a la competencia por la conquista del espacio en el siglo XX.

Según Top500, aunque Estados Unidos es el país que cuenta con la mayor cantidad de estos equipos (264), China lo secunda con 63, entre ellos el supercomputador más rápido del mundo actualmente: Tianhe-2, desarrollado en 2013 por la Universidad Nacional de Tecnología de Defensa de China y la empresa Inspur.

Tianhe-2 (conocido como Milkyway-2) se encuentra en el Centro Nacional de Supercomputación en Guangzho y tiene una capacidad de 33,86 petaflops por segundo, es decir, es capaz de realizar 33,86 millones de millones de operaciones por segundo.

De esta manera superó a Titan casi en el doble de procesamiento de información (17,6 petaflops) y relegó al segundo lugar a este equipo del Laboratorio Nacional de Oak Ridge del Departamento de Energía de Estados Unidos que ayuda a la investigación científica en cambio climático, biocombustibles y energía nuclear.

Computación en grid


Un sistema grid es un modelo de computación distribuida que permite usar recursos tan diversos que incluso sus sistemas operativos pueden ser diferentes. Es el caso del World Community Grid, proyecto sin ánimo de lucro que apoya iniciativas relacionadas con la búsqueda de tratamientos médicos a enfermedades como el cáncer o a investigaciones sobre desastres naturales.

usos.png​​​

Bajo este modelo computadores personales, de empresas o de organizaciones se pueden vincular mediante una red extendida como internet para procesar de forma conjunta paquetes de información que, por ejemplo, solo podrían trabajar supercomputadores.

Funciona bajo el concepto del “uso oportunista”, es decir, se instala un programa, Boinc (Berkeley Open Infrastructure for Network Computing) en el caso del World Community Grid, y cuando detecta un computador ocioso lo pone a disposición del procesamiento de datos, señala Pineda.

Al ordenador llegan paquetes de datos que, una vez revisados, son enviados nuevamente por internet. De forma conjunta, la capacidad computacional de miles de equipos procesando estos pequeños grupos de información pueden emular algunas de las capacidades de los supercomputadores. Incluso puede trabajarse como si se tratara de computación paralela, escenario en el que componentes de un supercomputador realizan varias tareas al mismo tiempo mediante la segmentación de las labores.  

Otro ejemplo de computación en grid es el proyecto que la Universidad de los Andes (Colombia) tiene en fase de desarrollo bajo el nombre Campus Grid Uniandes. Harold Castro, profesor uniandino vinculado al proyecto, señala que se está construyendo un “supercomputador virtual” a partir del uso oportunista de los equipos disponibles en las salas de cómputo de los estudiantes y los equipos de alto rendimiento que tienen en las diferentes facultades, pero de forma “aislada”.

La iniciativa surgió una vez detectaron que los estudiantes solo “utilizaban el 10 por ciento de la capacidad operativa de los equipos de las salas de computación, dejando el otro 90 por ciento libre”, lo que les permitía conformar un grid computacional, asegura Castro. De esta forma, los investigadores acceden a un supercomputador virtual a través de internet e ingresan los datos que son procesados por el enjambre de equipos, sin que se percaten los usuarios de cada uno de estos, afirma Castro.

Otra experiencia nacional destacada es Grid Colombia, un proyecto derivado del World Community Grid, que desde su inicio en 2005 busca unir esfuerzos locales, tal como lo ha hecho EAFIT a través de Apolo con el Pecet.

Al respecto, Carlos Muskus, coordinador de la Unidad de Biología Molecular y Computacional del Pecet, resalta el interés de EAFIT por colaborar con el desarrollo y la investigación local porque “como investigadores es importante que haya disponibilidad de las universidades y las organizaciones que cuentan con este tipo de equipos para usarlos”.

En este sentido, Rodrigo Ochoa, ingeniero de sistemas del Pecet, destaca los acuerdos con EAFIT para aprovechar el uso de Apolo con el fin de continuar con la investigación en tratamientos para la Leishmaniasis y la malaria.

Aporte de Apolo a EAFIT


Apolo, desde febrero de 2012 (cuando comenzó a operar) y hasta 2013, ha donado el equivalente a 152 años de cómputo al World Community Grid y Grid Colombia, ha contribuido con su capacidad tecnológica en simulaciones de 23 estudios científicos y ha apoyado con recursos y capacitaciones de computación de alto rendimiento a 12 grupos de investigación de la Universidad EAFIT, asegura Juan David Pineda, director técnico del Centro de Computación Científica.

Por ejemplo, el grupo de investigación Research in Spatial Economics (Rise) de EAFIT ha sido uno de los grandes beneficiados con Apolo, donde ha logrado desarrollar y aplicar nuevos métodos cuantitativos para el análisis de información georreferenciada, una tarea que requiere de gran potencia computacional para la modelación matemática.

Para Juan Carlos Duque, director del Rise, trabajar con un supercomputador abre verdaderas oportunidades investigativas, de modelo de negocio y de posicionamiento del equipo de trabajo.

Por otra parte, el Grupo de Investigación en Ingeniería de Diseño (Grid) también se ha beneficiado de Apolo para el análisis del comportamiento de materiales compactados sujetos a condiciones de vibración. Esto les ha permitido obtener gráficas de comportamiento que utilizan un gran volumen de datos.

También han realizado pruebas con una herramienta de simulación Open Source para validar su usabilidad en el contexto de pequeñas y medianas empresas. Para esto simularon un análisis de flujos térmicos para estudiar la recuperación de calor del horno de una ladrillera, menciona Ricardo Mejía Gutiérrez, director del Grid.

En la Institución, Apolo se ha utilizado además en proyectos relacionados con nanotecnología y, con el apoyo de la Universidad Purdue, ha logrado llevar a feliz término intercambios académicos, estudiantiles, asesorías y proyectos conjuntos.

Guane I y Bios

Aunque la supercomputación en Colombia aún está en una fase prematura, hay varias experiencias que se destacan, más que por la capacidad de los equipos, por su esfuerzo para articularse con otras organizaciones y por su vinculación con la investigación.
Es el caso del Centro de Supercomputación y Cálculo Científico de la Universidad Industrial de Santander (UIS).

Este proyecto nace como parte de un análisis institucional que, en 2005, concluyó que era necesario adquirir un equipo para apoyar actividades investigativas de esta universidad en áreas como la astronomía y la astrofísica, dice Carlos Jaime Barrios,
director de este centro de la UIS que, en 2004, ya contaba con dos supercomputadores que fueron remplazados por Guane I.

Dicho centro ha servido en “81 proyectos entre investigaciones y convenios con el sector privado y el público, algunos con el sector petrolero”, afirma Barrios. Adicionalmente, cuenta con convenios con organizaciones en México, Costa Rica y varias regiones del país, incluyendo a Apolo de la Universidad EAFIT.

Otro aspecto interesante de la iniciativa de la UIS es el énfasis en la formación de académicos, científicos e investigadores en competencias relacionadas con el uso de la supercomputación, porque se dieron cuenta de que lo importante no es tener la máquina, sino saber utilizarla, resalta Barrios. 

Por otra parte, el Centro de Bioinformática y Biología Computacional (Bios) de Manizales es otro referente nacional que cuenta con infraestructura de información dedicado al análisis de genomas y bioinformática, con el que buscan “traducir todos los datos contenidos en una célula a información virtual para utilizarla con fines industriales en elaboración de productos, alimentos, medicamentos, entre otros”, explica Dago Bedoya, director de esta organización de capital mixto que presta este servicio como
un modelo de negocio.​​

​​Investigador​

Juan Guillermo Lalinde Pulido​​

 Doctor Ingeniero en Telecomunicación, Universidad Politécnica de Valencia - España, 2000.​​

Más información sobre el investigador​​​​



Última modificación: 02/03/2017 11:49