Tribuna abierta

Dime de qué hablas...

Por Joaquín Arriola - Jueves, 6 de Septiembre de 2018 - Actualizado a las 06:00h.

MIENTRAS el Congreso de los Diputados de España discute sobre el procedimiento legal para sacar una momia de una tumba, el Congreso de los Estados Unidos organiza un debate sobre los desafíos sociales y morales de la inteligencia artificial y otro sobre los desafíos del Big Data para el ministerio (departamento) de energía -como principal financiador de la investigación en ciencias físicas en Estados Unidos, gestiona 17 laboratorios nacionales y 27 unidades de investigación científica- para las universidades y para la industria.

O dicho de otro modo, mientras los políticos españoles se dedican a la literatura gótica, otros se interesan por cuestiones de ingeniería avanzada. Sin duda, la diferente responsabilidad de unos y otros induce estas diferencias en la escala de prioridades. O acaso sea que nuestros parlamentarios son conscientes de la irrelevancia de cualquier debate tecnológico que pudieran organizar, por cuanto la capacidad del gobierno, de las universidades y de las empresas locales para influir en el cambio tecnológico están cortocircuitadas por la dependencia presupuestaria de las decisiones de la CE en Bruselas y la dependencia tecnológica de las multinacionales extranjeras.

En todo caso, la nota unamuniana del “que inventen ellos…” se complementa necesariamente con el “…y nosotros nos aprovecharemos de sus invenciones”. Así que tomemos nota de las preocupaciones de los políticos estadounidenses, porque a la postre tienen que ser las nuestras.

Hasta hace poco, la idea del aprendizaje automático de las máquinas era solo teórica, porque los modelos de aprendizaje profundo requieren cantidades masivas de datos y potencia de cálculo. Pero los avances en unidades de procesamiento gráfico de alto rendimiento, computación en nube y almacenamiento de datos han hecho posible estas técnicas.

De hecho el aprendizaje automático está ya presente en nuestro día a día, desde etiquetar fotos en Facebook hasta proteger los correos electrónicos con filtros antispam, pasando por utilizar un asistente virtual como Siri o Alexa para buscar información, los algoritmos basados en el aprendizaje automático tienen potentes aplicaciones.

La prioridad de financiar la investigación en inteligencia artificial y en el autoaprendizaje de los ordenadores, no se lo dejan al mercado, sino que se gestiona como una prioridad política.

El gobierno federal norteamericano está usando enfoques de aprendizaje automático de las máquinas para estudiar el comportamiento de las proteínas, para entender las trayectorias de los resultados de salud de los pacientes o para predecir las respuestas biológicas de los medicamentos. En el Laboratorio Nacional Argonne, por ejemplo, los investigadores están utilizando algoritmos intensivos basados en el aprendizaje automático para intentar cartografiar el cerebro humano.

Pero con 100.000 millones de células cerebrales (neuronas) que realizan un promedio de 10.000 conexiones entre sí, el cerebro humano es la estructura más complicada estudiada en la historia de la humanidad. Como señalaba Narayanan Kasthuri, uno de los investigadores del laboratorio nacional Argonne, en el debate que organizó el Congreso, incluso la parte más pequeña del cerebro del ratón, una pequeña fracción en tamaño y capacidad en relación con el cerebro humano, es hoy por hoy el límite de lo que pueden analizar la mayoría de los científicos, universidades e institutos del mundo. Para trazar el mapa del cerebro humano se requerirán eruditos con conocimientos y habilidades increíblemente diversas, un proyecto interdisciplinario de gran alcance y enorme potencial. Los datos requeridos para elaborar el mapa, medirían aproximadamente 1billóngigabytes (un exabyte) y no podrían caber en la memoria de ningún ordenador actual. En comparación, por ejemplo, todo el Proyecto Genoma Humano mide solo unos pocos gigabytes. De hecho, si pudieras combinar todo el material escrito del mundo en un solo conjunto de datos, sería solo una pequeña fracción del tamaño de este mapa cerebral.

Entender cómo funciona el cerebro será el gran logro intelectual del siglo XXI, revelando las bases físicas de nuestras habilidades más humanas, como el razonamiento, y sirviendo como modelo para la ingeniería inversa de esas habilidades en algoritmos y robots.

De este modo, el Congreso norteamericano se pone las pilas: identifican como otros países Japón, Corea del Sur y China especialmente, conscientes de los enormes beneficios económicos y de seguridad nacional de entender el cerebro, están dedicando enormes recursos tanto al mapeo cerebral como en la inteligencia artificial;Estados Unidos parece llevar un cierto retraso, y por eso han acordado incrementar el apoyo presupuestario, incluso en el contexto de recortes al sector público de la política presupuestaria de la administración Trump: “Seguridad nacional” son las palabras mágicas que abren todas las puertas, y liberan todos los cerrojos.

De hecho se prevé que en 2021 el gobierno norteamericano (el gobierno, no IBM o GE, aunque como siempre, las grandes empresas se benefician de la I+D pública, en Estados Unidos o en China más que en la UE) cree el primer superordenador de clase exascala, al menos 50 veces más rápido que las supercomputadoras más poderosas en uso hoy en día en los Estados Unidos. Será la primera vez que los científicos tengan una máquina lo suficientemente potente como para igualar el tipo de cálculos que el cerebro puede hacer.

Kathy Yelick, subdirectora de uno de los laboratorios nacionales del Departamento de Energía, apuntaba que los grandes desafíos de los datos a menudo se caracterizan como los 4 Vs: volumen (el tamaño total), velocidad (la velocidad a la que se está produciendo), variabilidad (la diversidad de tipos de datos) y veracidad (ruido, errores y otros problemas de calidad). Los datos científicos tienen todas estas características, pasar a la exascala para usar grandes conjuntos de datos permitirá nuevos descubrimientos, debido al aumento de las velocidades de datos, la reducción de los costos de recolección de datos y los volúmenes totales de datos.

Según esta investigadora, el volumen y la velocidad de los datos científicos están aumentando porque los instrumentos están mejorando: hoy podemos ver cosas a escala microscópica y atómica, medir vibraciones imperceptibles para el ojo humano y tomar imágenes de alta resolución de objetos en el universo que están a millones de años luz de distancia.

Los frutos potenciales de este esfuerzo en el desarrollo de la IA y el salto cuantitativo en la capacidad de los ordenadores son inmensos, en particular los que derivan del cruce entre la informática y la neurociencia. Como le informaba Narayanan Kasthuri a los congresistas norteamericanos, se puede transformar la forma en que se tratan las enfermedades mentales y las enfermedades cerebrales;revolucionar la forma en que se piensan y contruyen los futuros ordenadores y algoritmos;reforzar las capacidades de inteligencia artificial y seguridad nacional y económica. O como señalaba el investigador jefe de general Electric, Matthew Nielsen, el nexo entre las tecnologías físicas y digitales está revolucionando lo que los activos industriales pueden hacer y cómo se gestionan, permitiendo vincular soluciones digitales a la física de las máquinas industriales y mejorando el conocimiento de cómo se controlan. La digitalización de los principales sectores industriales, como la energía, la aviación, el transporte y la sanidad, representa la próxima frontera de la revolución digital que ya hemos experimentado en las finanzas, el entretenimiento y las telecomunicaciones.

En otro orden, el crecimiento exponencial de la potencia de computación y las tecnologías digitales que permite conectar y controlar miles de millones de máquinas, tiende a borrar las fronteras entre ramas productivas y abre nuevos espacios a la centralización y concentración del capital.

Y mientras unos se preparan para lo que viene, otros se entretienen cavando agujeros y abriendo zanjas. Es lo que hay.

Secciones