Entrevista en la revista Cambio16

El periodista Juan Emilio Ballesteros me entrevistó para la sección de Ciencia & Tecnologia de la revista Cambio16. Aquí pueden encontrar la extensa entrevista que Juan Emilio elaboro. ¡Muchas gracias Cambi016 por hacer comprensible la IA a vuestros lectores y lectoras!

(Descargar Versión PDF en este link)

Jordi Torres: «La inteligencia artificial no esperará al ser humano»

La impresión de que todo lo que nos rodea y acontece en nuestra vida cotidiana se va impregnando de inteligencia artificial (IA) es hoy, más que una promesa de futuro, una certeza evidente. Cada vez más actividades que hasta ayer mismo eran competencia exclusiva de los seres humanos, están controladas por la IA, que está cambiando el mundo a una velocidad vertiginosa. Su avance es imparable. Hasta el punto de que nos preguntamos si de alguna manera nos está desplazando. El investigador Jordi Torres, experto en IA, nos desvela los potenciales riesgos y desafíos asociados a la tecnología más disruptiva que hemos conocido, y nos explica sus posibilidades y ventajas para que reflexionemos sobre qué tipo de IA queremos y adónde nos debe llevar.

Hasta hace muy poco tiempo, la IA era una materia de la ciencia-ficción que alimentaba nuestra imaginación, al menos en la pantalla cinematográfica, donde ordenadores como HAL 9000 o Skynet dibujaban un futuro casi siempre distópico e inquietante.

Sin embargo, la IA ha pasado a formar parte de nuestra existencia igual que irrumpió el móvil en nuestras vidas, impulsando una revolución tecnológica, equiparable a la que generó Internet, que está cambiando la forma en que interactuamos con los ordenadores y dispositivos móviles.

Jordi Torres, catedrático de la UPC e investigador del Barcelona Supercomputing Center (BSC) entiende la IA como una rama de la informática que permite a los ordenadores tomar decisiones autónomas, mejorar la experiencia del usuario y optimizar procesos en áreas como el transporte, las finanzas, la educación, el comercio, la agricultura o la salud. Su progreso se debe a tres factores clave: los avances algorítmicos, la disponibilidad de grandes cantidades de datos y la capacidad de computación.

La IA está cambiando el mundo a una velocidad sin precedentes, y se hace más necesario que nunca comprender qué es, de dónde ha surgido y hacia dónde nos llevará. La inteligencia artificial explicada a los humanos (Plataforma Editorial, 2023) es un libro divulgativo, ameno y claro. Escrito en un lengua cercano y accesible para todos, que constituye una especie de biografía de la IA, desde sus orígenes hasta hoy.

Una obra pensada para un lector sin conocimientos técnicos previos acerca del funcionamiento y el impacto de la IA. Según se especifica en el prefacio, el objetivo es fomentar la reflexión informada y consciente sobre la evidencia de que nos encontramos ya inmersos, sin vuelta atrás, en un nuevo paradigma coevolutivo en el que la humanidad y la IA se han embarcado conjuntamente, gestando una interdependencia y cohabitación que exigen (IA).

Actualmente Torre es profesor del grado en IA y de cursos de master de la UPC. En 2005, se unió al Barcelona Supercomputing Center (BSC) como parte del equipo fundador y responsable de investigación en el Departamento de Ciencias de la Computación.

Además de ser investigador senior, su experiencia y capacidad pedagógica lo han llevado a ocupar, también, el cargo de asesor en HPC e IA en la dirección del BSC, con la misión de reforzar la comunicación y la divulgación de la investigación y la innovación que se llevan a cabo en el BSC.

Colabora habitualmente en medios de comunicación para hablar del impacto social de la HPC y la IA. Asimismo, es asesor científico de la exposición «Inteligencia Artificial» del CCCB (Centre de Cultura Contemporània de Barcelona).

Mateo Valero, director del BSC, que ha prologado el libro, afirma que la lectura de esta obra es imprescindible para cualquiera que desee entender la revolución que representa la IA.

“En el BSC –explica Mateo Valero– trabajamos en investigaciones donde la supercomputación, junto con la IA, sirven para mejorar la salud de las personas, por ejemplo, para prevenir y curar el cáncer de manera personalizada, o para estudiar y mitigar el cambio climático. Para ello, la IA necesita usar muchos datos, lo cual plantea importantes desafíos éticos que debemos abordar de forma urgente como sociedad. Pero no debemos tener miedo a la IA, sino estar muy atentos y disponer de todas las precauciones que sean necesarias. Y para ello, la forma de lograrlo es empoderar a la sociedad, lo cual requiere una conciencia social para controlar el mal uso de esta tecnología. El libro que ha escrito Jordi Torres es de gran valor en este sentido, ya que permite que el lector sea consciente de la vertiginosa velocidad a la que avanza la IA y, en consecuencia, comprenda que debemos actuar de manera rápida y descubrir qué podemos hacer cada uno de nosotros para abordar este tema”.

La democratización de la IA posibilita que cualquiera con conexión a internet pueda acceder a sus beneficios. ¿Se puede suponer que va a mejorar el nivel de vida de todos?

Al igual que tuvo la imprenta, el tren o los transistores, la IA tiene, y tendrá, un impacto positivo en nuestro día a día. Porque a medida que la IA avanza lo hacen también las oportunidades de usarla para aumentar la productividad y la calidad en muchos sectores de la economía, incluidos el cuidado de la salud, la educación o el transporte. Pongo un ejemplo que seguramente todos usamos.

El GPS potenciado por la IA ejemplifica estas ventajas al proporcionar optimizaciones de rutas, facilitar la gestión del tiempo y la planificación de viajes, además de ofrecer la capacidad de conocer con anticipación cómo llegar a lugares de interés desconocidos. Este avance tecnológico promete seguir transformando y mejorando nuestra experiencia diaria.

En 2024, la IA llegará a todos los sectores económicos. Las organizaciones descubrirán cómo optimizar su rendimiento, integración, escalabilidad, ahorro de costes y seguridad. Quien no se adapte, ¿quedará fuera del mercado?

Es difícil imaginar todos los cambios que nos esperan, porque el desarrollo de la IA conlleva una enorme capacidad, aunque es una certeza que la IA obligará a reconvertirse a millones de empleados en una parte de sus tareas.

Hasta hace pocos años no creíamos que la IA fuese a afectar a los empleos creativos de forma inmediata. Parecía que ‘solo’ estaban en jaque aquellos trabajos rutinarios y repetitivos (los automatizables), como las cadenas de producción o almacenes. Sin embargo, estamos ya viendo que las tareas creativas también pueden automatizarse con IA para los llamados trabajadores de cuello blanco, es decir, aquellos cuyas tareas implican escribir, asesorar, resumir o resolver problemas complejos.

Como apuntó el Premio Nobel de Economía Paul Krugman, la aparición de ChatGPT es solo un ejemplo de esta tecnología que parece capaz de llevar a cabo tareas que hasta hace poco requerían los servicios no solo de seres humanos, sino también de humanos con una considerable educación académica.

Tanto en el comercio como en las finanzas, los servicios o la movilidad, la IA generativa va a transformar nuestros hábitos de consumo. ¿Cómo será esta evolución tecnológica exponencial y qué capacidad de disrupción tendrá?

No hay duda de que la evolución de la IA generativa transformará significativamente nuestros hábitos de consumo en estos ámbitos que me preguntas. Esta evolución tecnológica exponencial y esta capacidad disruptiva de la IA generativa radica en su habilidad para innovar anticipando y satisfaciendo las necesidades del consumidor de una manera más eficiente y personalizada, lo que podría cambiar fundamentalmente la forma en que interactuamos con estos ámbitos que indicas.

Por ejemplo, la IA generativa podrá personalizar las experiencias de compra actuales, anticipando aún más las preferencias del consumidor, u ofreciendo servicios que creen contenidos más elaborados, personalizados y creativos.

¿El principal reto de la inteligencia artificial no radica hoy tanto en su desarrollo como en su implantación?

Indudablemente, porque el desarrollo de la IA ha experimentado avances notables en los laboratorios tecnológicos públicos o privados, pero sus aplicaciones en el mundo real requieren de su integración armoniosa con sistemas tecnológicos preexistentes y sobre todo la adaptación al entorno social actual, planteando interrogantes éticos fundamentales relacionados por ejemplo con la privacidad, o la necesidad de garantizar prácticas transparentes y responsables, sin sesgos o discriminaciones, que no siempre es fácil de conseguir con el estado de la tecnología IA actual.

Y sin olvidar el reto de la mitigación de los impactos socioeconómicos de la inteligencia artificial, particularmente en términos de empleo. En resumen, lo más acuciante ahora asociados con la implantación efectiva de la IA ya disponible en nuestra vida cotidiana. radica en abordar los retos prácticos y éticos.

¿De qué forma podemos aprovechar los as­pectos positivos de la IA sin que seamos es­clavos de sus consecuencias más negativas?

Mi punto de vista es que es fundamental la entrada en vigor lo antes posible de marcos regulatorios éticos y legales robustos para guiar el desarrollo y uso de la IA abordando cuestiones como las mencionadas anterior­mente, como la privacidad, la equidad o la transparencia en los algoritmos, garantizan­do una implementación responsable.

Ade­más, es fundamental fomentar la educación y la «alfabetización» en el tema que nos ocu­pa, de aquí nuestro esfuerzo de escribir un li­bro divulgativo desde el rigor de un centro de investigación como el nuestro. La compren­sión generalizada de cómo funciona la IA y sus implicaciones permitirá a las personas tomar decisiones informadas y participar activamente en decidir entre todos hasta dónde debemos llegar a usar esta tecnología tan po­tente.

Alentando la participación ciudadana en la toma de decisiones relacionadas con la IA se ayudará a garantizar una representa­ción diversa de perspectivas y valores.

A la IA le encantan los dilemas, elegir entre dos opciones, pero los conflictos en la vida real tienen más soluciones posibles. ¿Por qué esa predilección en los modelos artificiales por los dilemas?

Para responder a esta pregunta deberíamos empezar aclarando que los algoritmos de IA son diseñados y entrenados para tareas específicas por humanos, quienes deciden muchas veces limitar las opciones a un conjunto pequeño para facilitar el proceso de toma de decisiones y simplificar la im­plementación y uso de los modelos de IA. Y en ningún caso una IA por su cuenta de­cide cuantas opciones considera que son las adecuadas.

No obstante, es importante destacar que también hay modelos de IA diseñados para abordar problemas com­plejos y considerar múltiples soluciones de manera más efectiva, como pueden ser los ejemplos de modelos que usan IA para so­lucionar problemas reales de salud, como los que se programan y usan en el Barcelo­na Supercomputing Center.

¿Se puede inculcar un imperativo humano en la IA para construir una especie de yo ético?

Los sistemas de IA son herramientas que están determinadas absolutamente por las pautas y datos con los que son entrenados por los humanos que los han diseñado. Por tanto, el «comportamiento» de la IA se puede modular integrando principios éticos en su diseño por parte de los humanos.

Estamos hablando de implementar desde principios como la transparencia, la equidad, la explicabilidad, etc., de los que ya hemos hablado. Pero insisto, es en base a su creación y su uso lo que puede determinar si es «buena o mala» una tecnología IA, en ningún caso la IA en sí misma, ya que esta es neutra.

Por ejemplo, la tecnología de visión por computador puede ser la misma tanto para detectar células can­cerígenas en una imagen médica como para realizar reconocimiento facial en una cámara para controlar a la población. Por eso, ahora mismo mi preocupación no es que llegue­mos a ser sometidos por la IA, sino por quie­nes las poseen y cómo estos las usan.

La IA quiere emular el funcionamiento del ce­rebro humano, por eso se fundamenta en las redes neuronales. No obstante, todavía sabe­mos muy poco del cerebro como para trasla­dar este conocimiento a una máquina. ¿Podría llegar a ser consciente, recordar y tener me­moria y desarrollar una personalidad estable?

En realidad, que una IA pudiera llegar a ser consciente, recordar, tener memoria y de­sarrollar una personalidad estable signifi­caría que podría decidir su propósito y no limitarse a hacer lo que el humano le indica.

Seguramente recuerden la secuencia de la película Terminator en la que Skynet toma el control y se vuelve consciente de sí mismo y quiere aniquilar a los humanos porque los considera sus competidores. O la película 2001: Una odisea en el espacio, en la que la IA HAL 9000, que gobernaba la nave Disco­very, establece una lucha a muerte con los astronautas humanos para preservar la mi­sión, que era su primer objetivo.

Este es un miedo que está presente desde los inicios de la IA, y más allá de la ciencia ficción. Sin embargo, esta idea está lejos de ser la realidad; en la actualidad, los científi­cos no pueden prever cuál puede ser el ca­mino, ni siquiera si existe, para alcanzar una inteligencia artificial consciente.

Reputados investigadores como Stuart Russell, coautor del libro de texto universitario sobre IA más importante del mundo, lo expresa con que «vamos a necesitar varios Einstein para que esto suceda». Por tanto, quizás nunca.

¿La IA entiende lo que dice? ¿Puede reflexio­nar sobre su existencia, propósito o valores? ¿Es consciente de sí misma y de su poder?

La IA actual es eficaz en tareas específicas, pero presenta dificultades para adaptarse a situaciones inesperadas a las que no puede comprender ni aplicar conceptos abstractos porque no entiende lo que dice o hace. Se debe a que las redes neuronales artifi­ciales con las que se basan las IA actuales no están preparadas para entender por qué las cosas suceden, solo saben encontrar pa­trones y conexiones entre esas cosas.

Significa que, aunque puedan predecir muy bien lo que va a pasar en una situación dada, no son capaces de explicar por qué va a suceder. Es decir, no pueden proporcionar una explicación causal de por qué se pro­duce ese resultado. Esta es una limitación importante cuando se necesita entender exactamente por qué ocurre algo.

El mate­mático y filósofo Judea Pearl lo ejemplifica muy bien con dos elementos: la salida del sol y el canto del gallo. Una IA es capaz de comprender la correlación entre estos dos hechos, pero no es capaz de identificar si el gallo canta porque sale el sol, o si es el sol el que sale porque canta el gallo. Pero ¿cómo conseguirlo? Como hemos dicho antes, por el momento los investigadores en IA no he­mos visto ningún indicio del camino a seguir para resolverlo.

«Aunque pueda predecir muy bien lo que va a pasar en una situación dada, la IA no es capaz de explicar por qué va a suceder. Es decir, no puede proporcionar una explicación causal de por qué se produce ese resultado. Esta es una limitación importante cuando se necesita entender exactamente por qué ocurre algo. El matemático y filósofo Judea Pearl lo ejemplifica muy bien con dos elementos: la salida del sol y el canto del gallo. Una IA es capaz de comprender la correlación entre estos dos hechos, pero no es capaz de identificar si el gallo canta porque sale el sol, o si es el sol el que sale porque canta el gallo. Pero ¿cómo conseguirlo? Por el momento los investigadores en IA no hemos visto ningún indicio del camino a seguir para resolverlo”.

El avance de las redes neuronales permite el entrenamiento no supervisado. ¿Disponen ya las máquinas de la capacidad de aprender? ¿Se puede razonar mediante operaciones ma­temáticas?

En realidad, gran parte de las IA actuales se siguen entrenando de forma semi supervi­sada, que es una variante del entrenamiento supervisado. Pero es cierto que las hay que pueden «aprender» solas, sin la ayuda huma­na. Es lo que en 2018 se dio a conocer públicamente cuando la revista Science pu­blicó que se había creado un algoritmo que permitía a una IA «aprender» por sí misma a jugar juegos como el ajedrez, a partir de co­nocer solo las reglas del juego.

No como en el caso de la IA Deep Blue, que en 1997 ganó al mejor jugador del mundo de ajedrez, pero que fue programada con el conocimiento de los grandes maestros de ajedrez de aquel momento.

El sistema AlphaZero consiguió por sí mismo jugar al ajedrez, pero si cambiásemos el tamaño del tablero, por ejemplo, no sería capaz de jugar, puesto que ya no sería el mismo juego del que tiene referen­tes, sino uno totalmente nuevo, y AlphaZero debería volver a ser entrenado.

En cambio, los seres humanos sí sabríamos adaptarnos al juego con un tablero que incluyera por ejemplo una columna adicional. En resu­men, como hemos dicho, esto se debe a que las redes neuronales no están capacitadas para entender por qué las cosas suceden.

¿Puede la IA iniciar y dirigir su propio proceso de aprendizaje y explorar nuevos dominios por sí misma?

Existen enfoques de IA, como el caso de AlphaZero que hemos comentado, que intentan avanzar en lo que se conoce en el área de investigación como aprendiza­je por refuerzo, que persigue que las IA aprendan de manera más autónoma a par­tir de experiencias y datos sin la necesidad de supervisión humana constante. En este caso, la IA toma decisiones en un entorno, recibe retroalimentación en forma de re­compensas o penalizaciones, y va ajustan­do su comportamiento en consecuencia.

Este enfoque, que permite un cierto grado de aprendizaje adaptativo intentando un proceso de aprendizaje inspirado en el de la cognición humana, es un área que lleva muchos años de investigación, aunque no se ha conseguido hasta el momento gran­des avances que permita explorar nuevos dominios por sí misma.

¿La IA puede generar respuestas coherentes y lógicas, pero no puede cuestionar ni evaluar la veracidad o relevancia de la información que usa o produce?

Las IA actuales tiene la capacidad de generar respuestas solo basadas en el entrenamien­to y los datos con los que ha sido alimentada. Pero la IA actual carece de la capacidad in­trínseca de cuestionar o evaluar la veracidad y relevancia de la información que genera, solo tiene una referencia estadística, por decirlo de alguna manera, de como de pro­bable es aquella respuesta en relación con los datos con los que se ha entrenado.

Una interpretación simple para explicar cómo es la información que almacena una red neu­ronal es verla como su versión comprimida de todo el conocimiento que se le ha mos­trado para aprender. Es un proceso similar al de comprimir un archivo. Requiere dos pasos: primero, la codificación para compri­mir, durante la cual el archivo se convierte a un formato más compacto, y luego la de­codificación a partir de la información com­primida, en la que se invierte el proceso.

Es decir, cuando usamos estas IA para generar texto, en realidad estamos decodificando y, por tanto, la secuencia exacta de palabras que estaban en los datos originales no se encuentra en general almacenada tal cual, puesto que la copia comprimida solo es una representación de la información real.

Sin embargo, al decodificar, es posible obtener una aproximación en forma de texto grama­tical equivalente. Esto explica algunos casos en los que las respuestas de las IA son poco acertadas, pues en cierta manera es inevi­table que se haya perdido información en el proceso de compresión.

Hemos comprobado cómo son las respuestas de la IA, pero es posible que nosotros no se­pamos preguntar. ¿Tenemos que aprender a hablar con la IA?

Estoy convencido de que esta tecnología se integrará rápidamente en nuestra vida cotidiana, y accederemos a ella de manera cada vez más natural, incluso sin ser ple­namente conscientes. Esta realidad ya está tomando forma, ya que muchos de nosotros interactuamos cada vez más con diversas inteligencias artificiales a través de nues­tros smartphones, que en realidad son ya más inteligencia artificial que teléfonos.

Personalmente creo que apren­der cómo «preguntar» a una IA será cada vez menos relevante, ya que la interacción se volverá más intuitiva y parte integral de nuestras actividades diarias.

¿Son los ingenieros de prompts los profesio­nales con más futuro?

No cabe duda de que en la actualidad los profesionales que diseñan y ajustan las ins­trucciones y datos de entrada para pregun­tar a sistemas de IA desempeñan un papel esencial en la mejora del rendimiento y la adaptación de modelos de lenguaje y otros sistemas de IA.

Sin embargo, como ya he­mos avanzado, en consonancia con la evo­lución tecnológica y la creciente integración de la IA en diversos aspectos de nuestras vi­das, la transparencia en el uso de estas tec­nologías para el usuario en general también aumentará.

En ese sentido, personalmente considero que, con el tiempo, a medida que la comprensión y adopción de la IA se gene­ralicen, la necesidad y la popularidad actual de estos profesionales disminuirá.

¿Cómo evitar la manipulación y el sesgo?

Para evitar la manipulación y el sesgo en sis­temas de IA, es esencial implementar prácti­cas de transparencia y ética en el desarrollo de algoritmos como ya hemos comentado antes. Concretando más, podemos decir que deberíamos atender al detalle del conjunto de datos de entrenamiento, por ejemplo, in­cluyendo la diversificación de datos o la eva­luación de posibles sesgos en ellos.

Por otro lado, garantizar la aplicación de están­dares éticos en el diseño de algoritmos, por ejemplo, con la colaboración entre expertos en ética y desarrolladores. Pero, ante todo, es clave un uso correcto, es decir, que es­tos sistemas de IA se usen para el propósito para el cual fueron creados, y no para otros propósitos.

¿Cómo distinguir entre la información que in­corpora fuentes fidedignas de la que no?

Distinguir entre información de fuentes fide­dignas y no fidedignas es un desafío que va más allá de la información generada por la IA y se extiende a la información en gene­ral. La credibilidad de la información prove­niente de la IA depende en gran medida de la reputación del proveedor de esta IA y la ca­lidad de los datos de entrada utilizados en su entrenamiento.

Ahora bien, la alfabetización digital y el pensamiento crítico son esencia­les para evaluar la fiabilidad de cualquier in­formación, ya sea generada por IA o prove­niente de otras fuentes, y son herramientas valiosas para discernir entre la información confiable y la que no lo es. Por eso es tan importante que la ciudadanía se forme con libros como el nuestro para empezar y lue­go continúe interesándose por entender y profundizar en el tema con otros libros más avanzados u otros sistemas de información.

Usted trabaja con uno de los superordena­dores más potentes de Europa. ¿Será capaz la computación cuántica de llevar la IA a una nueva dimensión?

Es cierto que leyendo la prensa general parece que la llegada de la computación cuántica está a la vuelta de la esquina. Por el momento, el BSC, nodo principal de la red Quantum Spain —que cuenta con trece centros de supercom­putación en toda España—, es donde estamos a punto de instalar una infraestructura de su­percomputación cuántica conectada con el supercomputador MareNostrum 5 y a la que podrán acceder investigadores y empresas para experimentar con esta tecnología.

Según la Dra. Alba Cervera-Lierta (investigadora del BSC y coordinadora de esta red), la mecánica cuántica es prometedora y se espera que abra puertas a trabajar de forma diferente. Pero a pesar de contar ya con esta infraestructura, la Dra. Alba Cervera-Lierta insiste que en esta área estamos en una fase muy incipiente y que nos queda mucha investigación por de­lante para saber si podremos desarrollar los chips con tecnología cuántica. Una vez más, los expertos nos avisan que debemos investi­gar en esta dirección, pero no sabemos dónde podremos llegar.

¿El miedo a que la IA pueda llegar a sustituir­nos está más relacionado con la tecnología o con la estupidez humana?

Los recientes logros de la IA suelen in­terpretarse como una prueba de que nos encontramos cerca de la llegada de má­quinas guiadas por algoritmos que puedan funcionar como una mente humana, lle­gando a superar a nuestro cerebro. Algu­nos la llaman superinteligencia. Como ya hemos dicho antes, la ciencia ficción es, y ha sido, un buen altavoz de esta visión.

En todo caso, quienes postulan la inminente llegada de esta superinteligencia lo hacen con el argumento de que los avances ex­ponenciales en IA la hacen inevitable, aun­que muchos científicos somos escépticos respecto a ello. La principal razón es que esta hipótesis se basa en la continuación de un progreso exponencial y esto, clara­mente, no es sostenible, no es realista.

No quiero decir que no haya motivos de preocupación por el tema, sino simple­mente que no vemos que sea algo imper­turbable ni inminente. Y deberíamos preo­cuparnos urgentemente por los problemas que presenta el uso (y mal uso) de la IA actual. Esto sí que lo tenemos aquí.

¿No resultan inquietantes algunas aplicacio­nes como el desarrollo de una IA que predice el fallecimiento de una persona en los próximos cuatro años?

Supongo que te refieres a una investigación que salió en los medios de comunicación a finales del año pasado. Sinceramente no he leído el artículo de investigación, pero por lo que recuerdo haber leído se trataba de un ingente estudio de datos sociodemográficos que disponía de información de millones de individuos sobre su estado de salud, nivel de ingresos, hábitos de consumo, etc.

En rea­lidad, algunas conclusiones puedo suponer que ya se conocían de otros estudios, lo que supongo es que en este caso se ha consegui­do un modelo de predicción muchísimo más ajustada. En sí no creo que sea malo ni in­quietante, porque puede alertar a una perso­na que está en riesgo y gracias a ello puede tomar consciencia y corregir sus hábitos de consumo, por ejemplo.

En todo caso, volve­mos a lo tratado anteriormente, este tipo de modelos predictivos plantean un debate éti­co sobre su uso, debiendo entre todos deci­dir hacia dónde queremos que llegue la tec­nología. Porque tecnologías similares para predecir comportamientos humanos ya se utilizan, por ejemplo, para rastrear nuestro comportamiento en las redes sociales, tra­zando perfiles extremadamente precisos y así influir en nosotros.

Las revoluciones tecnológicas nos permiten avanzar y mejorar nuestra calidad de vida, pero no están exentas de riesgos. Los desafíos que se plantean son sociales, éticos y legales. ¿Hay que establecer límites? ¿Cómo regular su uso?

La mayoría de los expertos coinciden en que, al igual que ha ocurrido en otras áreas importantes en nuestra vida, es necesario establecer un marco regulador consen­suado. A medida que avanza el desarrollo de las IA se hace cada vez más evidente la necesidad de que se definan formas de regulación que velen por su desarrollo y uso, en el más amplio sentido del térmi­no: leyes, reglas, protocolos de actuación, autorregulación o sensibilización ciudada­na, entre otras.

A nadie le gusta ser regu­lado, pero todo lo que puede entrañar un potencial peligro para la sociedad lo está. Las aplicaciones específicas de la IA deben ser también reguladas y, en algunos casos, prohibidas si fuese necesario. Hoy no po­demos imaginarnos una sociedad avanzada sin una agencia como la Agencia Europea de Medicamentos, que regula y controla la producción, la distribución y el uso de los fármacos.

Lo mismo ha de plantearse en el campo de la IA para garantizar que se de­sarrolle de forma correcta. Los 27 Estados de la UE y la Eurocámara han alcanzado el pasado diciembre un acuerdo provisio­nal sobre la ley europea de la IA. Pero este acuerdo trilateral entre la Comisión Euro­pea, el Parlamento Europeo, y los gobier­nos europeos, iniciado en 2021, aún debe ser ratificado y se espera que entre en vigor hacia finales de 2026, aunque algunas dis­posiciones podrían aplicarse antes.

¿Y en cuanto al riesgo geopolítico, que se evi­dencia, por ejemplo, en el uso que China hace de esta herramienta mucho más allá de los lí­mites de la Unión Europea o Estados Unidos?

La IA en general, y las IA generativas en par­ticular, serán una fuente de enorme poder para las empresas y los países. Y todos es­tamos siendo testigos de la carrera para su adopción por parte de los países, que como indicas, muchos ya están más allá de los lí­mites de la Unión Europea, además de que el desarrollo tecnológico de la IA se ve cada vez más involucrado en la pugna entre Estados Unidos y China.

Entonces, si las IA son tan importantes, ¿cómo es que ahora mismo en Europa estamos cediendo su control a unos laboratorios privados estadounidenses? Eu­ropa necesita tener control sobre estas tec­nologías –creando las suyas propias– que serán tan nucleares en el futuro de nuestra sociedad y economía.

Para Europa debe ser una prioridad ser soberana en cuanto a la IA, implicando reforzar determinados aspectos de la cadena de suministros de la IA, como es incrementar la capacidad de supercom­putación a gran escala a nivel europeo para entrenar estas IA o el desarrollo de chips, piedra angular de la IA.