Conacyt.- Durante el Tercer Foro Franco Mexicano de Ciencia, Tecnología e Innovación celebrado en la ciudad de San Luis Potosí, el prestigioso matemático francés Cédric Villani compartió con destacados académicos franceses y mexicanos provenientes de diversas partes del país, la necesidad imperiosa de reflexionar en torno a la naturaleza de la inteligencia artificial (IA), sus raíces y lo que implica su desarrollo y aplicación en las sociedades modernas. Aunque se pueden rastrear sus orígenes de desarrollo en las ideas de personajes destacados de la historia reciente como el famoso Alan Turing, creador del test de Turing para evaluar la capacidad de inteligencia de una máquina, el auge de la IA “se da en un contexto muy mediatizado y que es muy criticado por los académicos. Y es que se trata de un contexto tecnológico pero también hay uno económico para la inteligencia artificial, donde están Estados Unidos, China, Canadá, Inglaterra e Israel. Finalmente no es mucha gente. Pero su desarrollo (de la IA) también es una cuestión de desarrollo económico en varios campos. Y precisamente la clave de la inteligencia artificial son algunos ingredientes: la capacidad para movilizar muchos investigadores, capacidad para acceder a grandes bases de datos, capacidad para movilizar material, etcétera”, afirmó el matemático.
El científico, conocido por haber ganado la Medalla Fields a los 37 años de edad, actualmente dirige la Misión Villani, un proyecto multidisciplinario impulsado por la Estrategia Francesa para la Inteligencia Artificial “IA para la Humanidad”, en donde se encargó, junto con su equipo, de redactar un extenso informe (el Reporte Villani) de más de 200 páginas en el que se exploran las ventajas y propuestas de trabajo para su desarrollo e implementación en Francia y el resto de Europa.
En dicho informe, y como lo mencionó en conferencia, crear inteligencia artificial es una tarea que, aunque hace décadas se consideraba un terreno inhóspito propio de los teóricos, hoy conjuga a su alrededor equipos multidisciplinarios en las potencias mundiales que invierten asombrosas sumas de billetes para crear bases de datos y desarrollar algoritmos matemáticos que posibiliten cimentar un buen comienzo. “Por eso es que no es sorprendente que los gigantes informáticos americanos como Google o Microsoft, que tienen mucho dinero y clientes, hayan podido constituir esas grandes bases de datos y equipos de cálculo para asegurar su prominencia en el desarrollo de este campo”, afirmó el investigador.
Para el matemático, la IA es una especialización de la algorítmica matemática, que en esencia técnica implica la creación de recetas, por decirlo de alguna manera, que permitan hacer cálculos para aproximarse a lo desconocido. Para esto, los desarrolladores multidisciplinarios buscan resolver el mayor problema de la IA, que es uno de “dimensionalidad”, porque los algoritmos necesarios para que un programa reconozca de manera autónoma cosas nunca antes vistas es un trabajo monumental difícil concebir.
Y generalmente se han utilizado dos aproximaciones teóricas para crear inteligencia artificial. En una se plantean reglas explícitas a través de métodos de sistemas expertos, también llamados métodos ontológicos de causalidad, que son sistemas de conocimiento humano capturado en ordenadores para resolver problemas que usualmente requieren de expertos humanos, mediante la emulación de procesos de razonamiento humano para resolver problemas específicos a partir del contexto dado.
Otra manera es usar un modelo estadístico donde se calculan probabilidades mediante semejanzas y correlaciones pero no con causas ni consecuencias.
“Inteligencia es aprender de los errores propios e ir y encontrar algo que no se conocía. Los resultados más espectaculares fueron obtenidos con métodos de aprendizaje que no son nuevos. Empezaron en los años 50, pero durante mucho tiempo esos métodos no fueron eficaces y esa es la gran sorpresa de estas últimas décadas: que podemos desarrollar un aprendizaje eficaz que fue una revolución en IA”.
Aplicaciones y avances
Los avances recientes han permitido la implementación experimental de IA sobre todo en el campo de la biomedicina y la biología, con análisis de imagenología médica o estudios genofenotípicos (la identificación de rasgos físicos fenotípicos mediante el análisis solo del ADN), así como en la vigilancia médica integral de pacientes. Todos estos casos ponen de manifiesto que los sistemas IA analizan por analogía y comprenden grandes bases de datos, pero también que tales avances han invadido hasta el núcleo de la intimidad. “La IA tiene consecuencias en todas las ciencias y campos de la tecnología. Y por supuesto, hay recetas que pueden servir para muchas otras cosas. Emmanuel Candès en 2014 ya hablaba de las reconstrucciones de información oculta y preferencias, algo que le sirve a Netflix y otros programas o la experimentación médica en imagenología”.
Otros de los desarrollos han sido los algoritmos de aprendizaje reforzado profundo y las técnicas de redes neuronales (reproductoras del comportamiento neuronal), que no son del todo nuevas pero que al implementarse bajo nuevas configuraciones producen resultados realmente impactantes.
Un caso particular ha sido el desarrollo de redes neuronales como AlphaZero por parte de la empresa de IA, Google DeepMind, que venció hace poco a los campeones mundiales del legendario juego chino del Go. Situación que junto con la popularidad de la robot humanoide Sophia, hoy ciudadana de Arabia Saudí con mejores derechos civiles que muchos otros humanos, ha puesto en el debate la necesidad de pensar marcos éticos y legales para el desarrollo de la inteligencia artificial.
“La IA viene con su lote de mezclas y temores. Hay todo tipo de preguntas legales, éticas y científicas sobre el uso de los algoritmos para IA. Es poderosa pero también puede llevarnos a cometer errores. Hay que tener en mente, siempre, que la responsabilidad tiene que ser del humano si se produce una catástrofe. Hay un humano que es responsable en alguna parte y no podremos decir que fue culpa del algoritmo”.
Para Cédric Villani, las reflexiones tienen que ir más allá, porque se debe considerar la existencia de una legislación pertinente y entender que en el futuro inmediato muchos empleos desaparecerán y otros nuevos surgirán, mientras que otros tantos se transformarán.
“Hay que observar y vigilar. Hay que tener en mente que la IA sí puede ser un gran peligro si se utiliza mal. Pero eso va a requerir una cooperación estrecha entre todos nosotros”, concluyó.