Este fin de semana aproveché una gentil invitación de IBM para ver la película Despicable Me (“Yo el despreciable”; me niego a llamarla “Mi Villano Favorito”), una muy buena experiencia en 3D. Como suele suceder con mi imaginación, que a veces se desboca, la película me sugirió una serie de reflexiones, basadas en una cadena de asociaciones que haría las delicias de los psicoanalistas ortodoxos. En otras palabras, de cómo empecé con una película de animación y terminé con serias dudas de los proyectos @home y de la industria farmacéutica, se trata este artículo.

En películas como Despicable Me o Shrek Forever After, por dar dos ejemplos de estrenos recientes, es muy evidente, por lo menos para los nerds, la capacidad de procesamiento que se hizo necesaria para generar esas imágenes. En el caso de la primera, el proceso de animación generó unos 142 terabytes de datos que fueron procesados durante 12 meses por 65.000 cores en una granja de servidores iDataPlex basados en Xeon dual y quad core.
En el caso de la última película del ogro verde, HP contribuyó con una buena cantidad (no dice cuántos) de workstations Quad Core Z800 y blades ProLiant BL460c G6 para procesar 76 terabytes.
En cualquiera de los casos, la capacidad de procesamiento fue inmensa. Y eso me hizo acordar a los proyectos de computación distribuida de los cuales SETI@Home fue un pionero y Rosetta@Home, uno de los epígonos actuales. Por si no te acordás, se trata de proyectos que aprovechan la capacidad ociosa de tu PC para procesar paquetes de datos que te envían desde los servidores centrales. Vos ofrecés esa capacidad solidariamente a fin de que los laboratorios de la Universidad de Washington (en el ejemplo de Rosetta@Home) y asociados puedan investigar, entre otras cosas, el plegamiento de las moléculas de proteínas. En síntesis, se trata de estudiar enfermedades como el mal de Alzheimer y la malaria, toxinas del ántrax y el virus HIV usando la computación distribuida.
Aunque no me resultó posible comparar ambos procesos, el de CGI y el del estudio de proteínas (uno mide en terabytes de datos y el otro en TeraFlops), lo cierto es que en el primer caso, todo el procesamiento se hace en el sector privado, con servidores (o en todo caso con tiempo de datacenter) comprados mediante inversiones de los productores de las películas. Uno imagina que de querer usar el método de la computación distribuida, tendrían que pagarle a cada uno de los operadores que ofrezca tiempo de procesamiento de su computadora personal.
Y ahí fue donde apareció otro tema más. Si yo bajo de Boinc el cliente (boinc 6.10.58, el más actualizado), estoy ofreciendo solidariamente mi capacidad ociosa de procesamiento, sin recibir a cambio nada que me sirva para amortizar el equipo, que pagué de mi propio bolsillo. Lo cual no sería ningún problema. No me molesta compartir mis recursos cuando se trata de cuestiones de salud, especialmente en estudios tan complejos como el del plegamiento de las proteínas.
Es más, hacía tiempo que no sabía nada del proyecto y mi gran duda siempre fue si lo que uno hacía, si el tiempo de procesamiento que ofrecía, daba o no algún resultado. Grande fue mi contento cuando me enteré de que gracias a Rosetta se diseñó una nueva enzima, o se intervino en el desarrollo de una terapia génica, o se colaboró con el perfeccionamiento de una vacuna contra la gripe.
El tema fue cuando se me ocurrió —y esto termina, para tu tranquilidad… o no, mi cadena asociativa— que los descubrimientos y desarrollos con los que estaría, teóricamente, colaborando con mi tiempo de procesamiento, terminarían en sustancias seguramente patentadas por laboratorios farmacéuticos que las usarían con propósitos primordialmente lucrativos, lucro del cual yo no recibiría más que, eventualmente, las gracias.
Si es realmente así, y no veo motivo por el que no lo sea, creo que desde hoy voy a cuestionar seriamente mi participación en este tipo de programas. A menos, por supuesto, que haya alguna cláusula que me asegure que los recursos de procesamiento que dono van a algún tipo de desarrollo “libre” (libre en el mismo sentido que software libre) según el cual, si yo llego a necesitar alguna vez un tratamiento basado en este desarrollo, debería recibirlo, libremente (en las dos acepciones de free). Así como también, cualquiera debiera recibirlo, porque yo doné mi tiempo de procesamiento, con herramientas de mi propiedad y bajo mi mantenimiento, con esa condición.
No sé si soy claro…


Warning: Uninitialized string offset 21 in /www/tecnozona.com/htdocs/wp-includes/functions.php on line 291

Warning: Uninitialized string offset 21 in /www/tecnozona.com/htdocs/wp-includes/functions.php on line 291

Por Ricardog

Periodista científico especializado en tecnología. Médico en retiro efectivo.

3 comentarios en «Computación distribuida: Despicable Me vs. Rosetta@Home»
  1. Un comentario acerca de la película. «Vector», el malo de la película, ¿No es Bill Gates?
    Un abrazo,

    Ariel

  2. Estoy totalmente de acuerdo con tu analizis, de echo hoy estuve en el sitio del Proyecto world comunity grid – energia limpia y alli decidi ver un paper o reporte que creo que es una conclucion basada en los resultados de los calculos de la computacion voluntaria y para acceder a el tenias que pagar si no entendi mal (no estoy seguro y no quise segir viendolo por que da un poco de ravia) lo otro que da a pensar es que son desarrollos de universisades de estados unidos o de otros paises que no pertenecen al mio concretamente o al tuyo imagino. Es por demas interesante el tema ya que dispongo de un parque de 150 pc mas o menos y estaba pensando en ponerlo a funcionar en todas, hoy voy a pensarlo.
    Se que el tema es viejo pero estaria bueno debatirlo un poco mas para ver los puntos debiles del sistema que es genial pero con algunas partes oscuras que solo luego del analisis se decubren.
    saludos

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.