¿Qué es la inteligencia artificial?

¿Qué es la inteligencia artificial? (Spanish)

Se está considerando la inteligencia artificial como la nueva revolución industrial que lo va a cambiar todo. Pero, ¿Qué es la Inteligencia artificial?, ¿En qué consiste?

1.  El futuro ya está aquí: inteligencia artificial

Grandes avances en visión, habla y lenguaje natural

Nos encontramos ante vertiginosos avances en la calidad y prestaciones de una amplia gama de tecnologías cotidianas: en el caso del reconocimiento de voz, la transcripción de voz a texto ha experimentado avances increíbles, y ya está disponible en diferentes dispositivos. Estamos interactuando cada vez más con nuestros ordenadores y todo tipo de dispositivos simplemente hablando con ellos. También ha habido avances espectaculares en el procesamiento del lenguaje natural: por ejemplo, simplemente haciendo clic en el símbolo de micro de Google Translate, el sistema transcribirá a otro idioma lo que está dictando. Google Translate ya permite convertir oraciones de una lengua a otra en 32 pares de idiomas, y ofrece traducción de texto para más de 100. A su vez, los avances en la visión por computador también son enormes: ahora nuestros ordenadores, por ejemplo, pueden reconocer imágenes y generar descripciones textuales de su contenido en segundos. Visión, habla y lenguaje natural son las tres áreas centrales de la inteligencia artificial que ya han impactado enormemente en nuestro día a día gracias a los avances de la investigación ya realizada.

¿A qué nos referimos cuando hablamos de inteligencia artificial?

Una extensa y precisa definición de la inteligencia artificial (Artificial Intelligence en inglés) la podemos encontrar en el fabuloso libro de Stuart Rusell y Peter Norvig titulado Artificial Intelligence, a modern approach,  libro que me fue de gran ayuda en mis inicios.  Pero, ciertamente, es un libro muy académico y quizás no es el más acertado para el lector de esta página web, aunque considero que es adecuado mostrar mi reconocimiento a esta obra, pues sin haberla leído no podria estar, ahora, escribiendo estas líneas. Intentando hacer una aproximación más generalista, podríamos aceptar que por inteligencia artificial nos referimos a la inteligencia que muestran las máquinas, en contraste con la inteligencia natural de los humanos. En este sentido, una primera posible definición concisa y general de inteligencia artificial podría ser el esfuerzo para automatizar tareas intelectuales normalmente realizadas por humanos. Como tal, el área de inteligencia artificial es un campo muy amplio que abarca muchas áreas del conocimiento relacionadas con el aprendizaje automático; incluso se incluyen muchos más enfoques no siempre catalogados como aprendizaje automático por mis colegas universitarios expertos en el tema. Además, a lo largo del tiempo, a medida que los computadores han sido cada vez más capaces de “hacer cosas”, se han ido cambiando las tareas o tecnologías consideradas como “inteligentes”. Esto explica por qué desde los años 50 la inteligencia artificial ha experimentado varias oleadas de optimismo, seguidas por la decepción y la pérdida de financiación e interés (épocas conocidas como AI winter), seguidas de nuevos enfoques, éxito y financiación. Además, durante la mayor parte de su historia, la investigación en inteligencia artificial se ha dividido en subcampos basados en consideraciones técnicas o herramientas matemáticas concretas y con comunidades de investigación que no se comunicaban suficientemente entre sí. Pero sin duda estamos ante una nueva época de expansión de la inteligencia artificial con resultados muy llamativos.  Por ejemplo, un grupo de investigación de DeepMind consigue que las máquinas aprendan solas (sin intervención humana) a vencer a los humanos jugando a complejos juegos de mesa como el Go. O la página web ThisPersonDoesNotExist.com, que con los resultados de este artículo de investigación  muestra cómo de fácil es para la inteligencia artificial  generar caras falsas increíblemente realistas para cualquier humano.

 Clases de inteligencia artificial: débil y fuerte

Creo que queda justificado el entusiasmo que genera la inteligencia artificial, pero también es cierto que se escriben muchas exageraciones acerca de la misma en los medios de comunicación, confundiendo y asustando a la población. Una de las razones es debido a que,  con “inteligencia artificial”,  expresamos dos ideas separadas que se refieren a cosas muy diferentes. Por un lado casi todo el progreso que estamos viendo en la inteligencia artificial, que se encuentra detrás de los avances antes mencionados, en el mundo académico se agrupa en lo que se denomina inteligencia artificial débil (Artificial Narrow Intelligence en inglés). Pero con inteligencia artificial también nos referimos a un segundo concepto, etiquetado en el mundo académico como inteligencia artificial fuerte (Artificial General Intelligence en inglés). Este tipo de inteligencia es aquella que consideramos que las máquinas pueden hacer cualquier cosa que un humano pueda hacer, o incluso ser superinteligentes y hacer incluso más cosas. Si bien hay muchos progresos en el área de inteligencia artificial débil, hay casi ninguno progresos en lo que se refiere a la inteligencia artificial fuerte. Pero el rápido progreso en la inteligencia artificial débil, que es increíblemente valioso, ha hecho que los medios de comunicación generalistas concluyan que hay mucho progreso también en la fuerte, lo cual no es cierto y está provocando temores irracionales sobre, por ejemplo, la llegada de robots inteligentes malvados para apoderarse de la humanidad en cualquier momento. La inteligencia artificial fuerte es un tema emocionante en el que los investigadores pueden trabajar, y creo que aún estamos muy lejos de que lleguemos a conseguir este conocimiento, pudiendo pasar décadas o cientos de años. Humildemente, creo que todavía estamos muy lejos de una máquina que sea tan capaz como los humanos de aprender a dominar muchos aspectos de nuestro mundo. Así que tomemos un ejemplo… incluso una niña de tres años puede aprender cosas de una manera que las computadoras no pueden hacer ahora; ¡una niña de tres años. en realidad, domina la física intuitivamente! Por ejemplo, sabe perfectamente que cuando tira una bola al aire esta caerá. O cuando derrama algunos líquidos, espera el desastre resultante. Sus padres no necesitan enseñarle las leyes de Newton, o hablarle de las ecuaciones diferenciales que definen la trayectoria de los objetos.: esta niña de tres años descubre todas estas cosas sola, sin supervisión. Ahora bien, hay autores, como Amy Webb, el cual de lanzar un libro, que consideran que incluso solo con la inteligencia artificial débil nos dirigimos rápidamente a una situación en la que los sistemas informáticos tomarán decisiones por nosotros, y pide que nos preguntemos qué sucederá cuando esos sistemas dejen de lado la estrategia humana en favor de algo totalmente desconocido para nosotros. Es sin duda una evidencia que nos estamos «fusionando» con nuestros teléfonos y ordenadores, y no es tan evidente saber hasta dónde llegará a medio plazo esta fusión y cómo vamos a seguir cambiando a medida que lo hagan nuestras máquinas.

2. Inteligencia artificial y sus tecnologías

Como decíamos en el anterior apartado, avances como el reconocimiento de voz, el procesado de lenguaje natural o la visión por computador son cruciales para desencadenar mejoras en robótica, drones, coches que se conducen solos, entre muchas otras áreas que están cambiando el futuro próximo. Estos avances y la nueva popularidad de la inteligencia artificial se deben en gran parte a los avances del Deep Learning (aprendizaje profundo) durante este decenio. Deep Learning es una familia de técnicas de una de las áreas de la inteligencia artificial conocida como Machine Learning (aprendizaje automático). Pero ¿cuál es la diferencia entre la inteligencia artificial, el Machine Learning y el Deep Learning?

Machine Learning

Machine Learning, en general traducido al castellano como “aprendizaje automático” (aunque en nuestro entorno de investigación mantenemos su nombre en inglés), es en sí mismo un gran campo de investigación y desarrollo. En concreto,  Machine Learning se podría definir como el subcampo de la inteligencia artificial que proporciona a los ordenadores la capacidad de aprender sin ser explícitamente programados, es decir, sin que necesiten que el programador indique las reglas que debe seguir para lograr su tarea sino que las hace automáticamente. Generalizando, podemos decir que Machine Learning consiste en desarrollar para cada problema un “algoritmo” de predicción para un caso de uso particular. Estos algoritmos aprenden de los datos con el fin de encontrar patrones o tendencias para comprender qué nos dicen los datos y de esta manera construir un modelo para predecir y clasificar los elementos. Dada la madurez del área de investigación en Machine Learning, existen muchos enfoques bien establecidos para el aprendizaje automático por parte de máquinas. Cada uno de ellos utiliza una estructura algorítmica diferente para optimizar las predicciones basadas en los datos recibidos. Machine Learning es un amplio campo con una compleja taxonomía de algoritmos que se agrupan, en general, en tres grandes categorías que presentamos a continuación.

Aprendizaje supervisado

Nos referimos a que el “aprendizaje es supervisado” cuando los datos de entrada que usamos para el entrenamiento incluyen la solución deseada, llamada “etiqueta”. En este caso el aprendizaje radica en aprender un modelo (función) que mapea una entrada a una salida. Un escenario óptimo permitirá que el modelo una vez entrenado determine correctamente las etiquetas para datos de entrada no vistos anteriormente. El construir este modelo se hace con un algoritmo que iterativamente va afinando el modelo mediante la generación de predicciones sobre los datos de entrenamiento y comparando estas predicciones con la respuesta correcta que el algoritmo conoce.  De aquí que se denomine aprendizaje supervisado.

Reinforcement learning

Hablamos de Reinforcement Learning (o “aprendizaje por refuerzo”, traducción de algunos autores) cuando el modelo se implementa en forma de un agente que deberá explorar un espacio desconocido y determinar las acciones a llevar a cabo mediante prueba y error: aprenderá por sí mismo gracias a las recompensas y penalizaciones que obtiene de sus acciones. El agente debe crear la mejor estrategia posible (políticas) para obtener la mayor recompensa en tiempo y forma. Este aprendizaje permite ser combinado con Deep Learning (el cual veremos en el apartado siguiente), y está ahora mismo muy presente en el mundo real. Durante la última década, esta combinación ha permitido un progreso sin precedentes en áreas tan diversas como el reconocimiento de imágenes, los coches que conducen solos o en juegos complejos como Go. Es importante notar que ambos paradigmas de aprendizaje, no supervisado y Reinforcement, requieren que el entrenamiento esté diseñado por un humano. En el caso de aprendizaje supervisado, se definen los «objetivos» (por ejemplo, la etiqueta correcta para una imagen); en el caso del Reinforcement Learning, son las “recompensas” por un comportamiento exitoso (como obtener una puntuación alta en un juego de Atari). Por lo tanto, los entrenadores humanos definen los límites del aprendizaje en ambos casos.

Aprendizaje no supervisado

En cambio, cuando nos referimos a un “aprendizaje no supervisado” los datos de entrenamiento no incluyen las etiquetas, y será el algoritmo el que intentará clasificar la información por sí mismo. Para resaltar la diferencia entre los tres tipos de aprendizaje volvamos al ejemplo de la niña y cómo su abuela la puede ayudar a aprender. La abuela de la niña podría sentarse con ella y enseñarle pacientemente ejemplos de gatos, de perros, etc. (actuando como en el aprendizaje supervisado), o recompensarla con un aplauso por resolver un rompecabezas de bloques de madera (como en el Reinforcement Learning). Pero en realidad, durante una gran parte de su tiempo,  la niña se dedica a explorar el mundo ingenuamente, dándole sentido a su entorno a través de la curiosidad, el juego y la observación. Es decir, aprende sin supervisión a partir de los datos que observa sin tener un propósito en particular. .

Deep Learning

Un caso especial de algoritmos de Machine Learning son las redes neuronales artificiales.  Si les ayuda, para visualizar su estructura pueden considerar que los algoritmos son similares a las neuronas humanas y su capacidad para la obtención de resultados, como habrán oído en alguna ocasión, aunque en la actualidad creo que poco tiene que ver. Esta era la idea de McCulloch y Pitt cuando definieron la arquitectura de una neurona en los años cincuenta del siglo pasado.  Aunque una descripción más detallada se puede encontrar en el apartado que describe un perceptrón de la nueva versión de los libros de Keras y Tensorflow  ¿Como se programa la inteligencia artificial?, la idea detrás de una neurona artificial conceptualmente es bastante simple. Tiene una o más entradas y una salida. Dependiendo del valor de esas entradas, la neurona puede “disparar”. De manera simplista, “disparar” significa que la salida pasa de estar apagada a encendida (piensa que es un interruptor binario que va de 0 a 1). En el caso concreto de Deep Learning (que en castellano se traduce a veces como “aprendizaje profundo”), las estructuras algorítmicas antes mencionadas permiten modelos que están compuestos de múltiples capas de procesamiento (construidas con neuronas artificiales) para aprender representaciones de datos, con múltiples niveles de abstracción que realizan una serie de transformaciones lineales y no lineales que a partir de los datos de entrada generen una salida próxima a la esperada (la etiqueta). El aprendizaje supervisado, en este caso, consiste en obtener los parámetros de esas transformaciones, y conseguir que esas transformaciones sean óptimas, es decir, que la salida producida y la esperada difieran muy poco. Una aproximación gráfica simple a una red neuronal Deep Learning se muestra en la figura adjunta. red-neuronal-deep-learning En concreto, aquí representamos una red neuronal artificial con 3 capas: una de entrada (input layer) que recibe los datos de entrada y una de salida (output layer) que devuelve la predicción realizada. Las capas que tenemos en medio se llaman capas ocultas (hidden layers) y podemos tener muchas, cada una con distinta cantidad de neuronas. En general, hoy en día estamos manejando redes neuronales artificiales con muchísimas capas, que literalmente están apiladas una encima de la otra; de aquí el concepto de deep (profundidad de la red), donde cada una de ellas está a su vez compuesta por muchísimas neuronas, cada una con sus parámetros que, a su vez, realizan una transformación simple de los datos que reciben de neuronas de la capa anterior para pasarlos a las de la capa posterior. La unión de todas permite descubrir patrones complejos en los datos de entrada. Los avances en Deep Learning han mejorado drásticamente el estado de la técnica en reconocimiento de voz, reconocimiento de objetos visuales, detección de objetos y muchos otros dominios, siendo una de las técnicas que han puesto la inteligencia artificial en el foco de interés de las empresas y de aquí el gran interés que ahora mismo suscitan. Las redes neuronales realizan la interpretación de las imágenes de entrada mediante la construcción de representaciones internas cada vez más complejas a medida que vamos avanzando en las capas de la red. Un buen ejemplo de los niveles jerárquicos de abstracción que comento se puede encontrar en el dominio del reconocimiento facial. En el reconocimiento facial, la tarea es detectar automáticamente rostros de personas específicas en imágenes. El primer nivel de abstracción de un modelo típico de reconocimiento facial de aprendizaje profundo son los datos de entrada sin procesar, generalmente los píxeles individuales de la imagen, seguidos de los bordes y los contrastes de color. Una combinación de bordes y contrastes de color puede constituir rasgos faciales, como ojos, nariz, boca, … y, finalmente, una combinación de rasgos faciales puede constituir una cara específica.  Estos diferentes niveles de abstracciones se pueden ver de manera intuitiva en la siguiente figura concebida por Andrew Ng que se usa a menudo para este propósito. reconocimiento facial con deep learning Pero aunque Deep Learning a menudo se presenta envuelto de una cierta mística, con referencias a algoritmos que “funcionan como el cerebro”, que “piensan” o “entienden”, la realidad aún dista bastante de este sueño de ciencia ficción. Además, creo que sus conceptos básicos pueden ser explicados de manera relativamente fácil a lectores con una base de conocimiento en informática y sobre todo ganas de aprender, siendo este el propósito del libro de introducción práctica al Deep Learning que pueden leer en esta web. La siguiente figura resume visualmente la idea intuitiva de que el Deep Learning es solo una parte de la inteligencia artificial, aunque en estos momentos quizás es la más dinámica y la que está haciendo realmente vibrar a la comunidad científica. Y de la misma manera que antes les mencionaba la obra de Stuart Rusell y Peter Novig como libro base de inteligencia artificial, para Deep Learning nos encontramos con un excelente libro, titulado Deep Learning, realizado por Ian Goodfellow, Yoshua Bengio y Aaron Corville que es el “campamento base” en estos momentos para el aprendizaje del tema en más profundidad. inteligencia-artificial-deep-learning

3.  ¿Por qué ahora?

John McCarthy acuñó el término inteligencia artificial en la década de los 50 y fue uno de sus padres fundadores de la inteligencia artificial junto con Marvin Minsky. También en 1958 Frank Rosenblatt construyó un prototipo de red neuronal, que llamó el Perceptron. Además, las ideas clave de las redes neuronales Deep Learning para la visión por computador ya se conocían en 1989; también algunos algoritmos fundamentales de Deep Learning ya fueron desarrollados en 1997, por poner algunos ejemplos. Entonces, ¿por qué este boom de la inteligencia artificial?

El triunvirato que alimenta a la inteligencia artificial

Evidentemente son muchos los factores que han influido en este boom de la inteligencia Triumvirato-inteligencia-artificial artificial. Por ejemplo, a partir del 2012, una ola de inversión hasta entonces no vista recorrió toda la industria del sector cuando el Deep Learning se convirtió en el nuevo estado del arte para la visión por computadora y gran parte de las tareas perceptivas. Las docenas de startupscon inversión de venture capitalo las inversiones millonarias en investigación de grandes compañías tecnológicas lo corroboran. Pero también otros factores más “técnicos”,  por decirlo de alguna manera, han propiciado la situación actual, el tenerlo todo “BIG”. Me explico, si antes teníamos computadores (COMPUTERS) que ejecutaban algoritmos (ALGORITHMS) que programábamos usando nuestros datos (DATA), ahora tenemos BIG COMPUTERS que ejecutan BIG ALGORITMS usando BIG DATA.

Los datos, el combustible para la inteligencia artificial

La inteligencia artificial requiere grandes conjuntos de datos para el entrenamiento de sus modelos, aunque, afortunadamente, la creación y disponibilidad de datos ha crecido exponencialmente gracias el enorme decrecimiento de coste e incremento de fiabilidad de la generación de datos: fotos digitales, sensores más baratos y precisos, etc. Además, las mejoras en el hardwarede almacenamiento de los últimos años, asociado a los espectaculares avances en técnica para su gestión, han permitido disponer de enormes conjuntos de datos para entrenar a los modelos de inteligencia artificial. Más allá de los aumentos en la disponibilidad de datos que ha propiciado internet y sus múltiples aplicaciones, los recursos de datos especializados han catalizado el progreso del área. Muchas bases de datos abiertas han apoyado el rápido desarrollo de algoritmos de inteligencia artificial.  Un ejemplo es ImageNet, la base de datos, de la que ya hemos hablado, disponible libremente con más de 10 millones de imágenes etiquetadas a mano. Pero lo que hace ImageNet especial no es precisamente su tamaño, sino la competición que anualmente realiza, siendo una excelente manera de motivar a investigadores e ingenieros. Mientras que en los primeros años las propuestas se basaban en algoritmos de visión por computador tradicionales, en el 2012 Alex Krizhevsky usó una red neuronal Deep Learning, ahora conocida por AlexNet, que redujo la ratio de error a menos de la mitad de lo que se estaba consiguiendo por aquel entonces. Ya en el 2015, el algoritmo ganador rivalizó con las capacidades humanas, y a día de hoy los algoritmos de Deep Learning superan con creces las ratios de error en esta competición de los que tienen los humanos. Pero ImageNet solo es una de las bases de datos disponibles que se han usado para entrenar redes Deep Learning durante estos últimos años; muchas otras han sido populares, como MNIST, CIFAR, SVHN, STL o IMDB. Hablaremos de ellas más adelante. También es importante mencionar aquí Kaggle, una plataforma que aloja competiciones de análisis de datos donde compañías e investigadores aportan sus datos mientras ingenieros de datos de todo el mundo compiten por crear los mejores modelos de predicción o clasificación.

Mejora de la capacidad de computación y democratización de la computación

Sin duda, la computación disponible ha sido uno de los principal desencadenante gracias a los avances en investigación en diversos campos de la supercomputación como son los sistemas paralelos, sistemas distribuidos o hardware especializado. Una explicación más extensa se puede encontrar en la entrada sobre supercomputación en mi blog. Ahora bien, ¿qué pasa si uno no dispone de esta capacidad de computación en su empresa? La inteligencia artificial hasta ahora ha sido principalmente el juguete de las grandes compañías de tecnología como Amazon, Baidu, Google o Microsoft, así como algunas nuevas empresas que disponían de estas capacidades. Para muchos otros negocios y partes de la economía, los sistemas de inteligencia artificial hasta ahora han sido demasiado costosos y demasiado difíciles de implementar por completo. Pero ahora estamos entrando en otra era de democratización de la computación, y las empresas pueden disponer de acceso a grandes centros de procesado de datos de más de 28 000 metros cuadrados (cuatro veces el campo del Barça), con cientos de miles de servidores dentro.  Estamos hablando de Cloud Computing. Cloud Computing ha revolucionado la industria mediante la democratización de la computación y ha cambiado completamente la manera de operar de los negocios. Y ahora es el turno de cambiar el escenario de la inteligencia artificial y  Deep Learning, ofreciendo una gran oportunidad para las pequeñas y medianas empresas que no pueden construir este tipo de infraestructuras, pero en cambio Cloud Computing sí se lo puede ofrecer; de hecho, ofrece acceso a una capacidad de computación que antes solo estaba disponible para grandes organizaciones o gobiernos. Además, los proveedores de Cloud están ahora ofreciendo lo que se conoce como Artificial Intelligence algorithms as a Service (AI-as-a-Service), servicios de inteligencia artificial a través de Cloud que pueden entrelazarse y trabajar conjuntamente con aplicaciones internas de las empresas a través de simples API REST. Esto implica que está al alcance de casi todos, ya que se trata de un servicio que solo se paga por el tiempo utilizado. Esto es disruptivo, porque ahora mismo permite a los desarrolladores de software usar y poner prácticamente cualquier algoritmo de inteligencia artificial en producción en un santiamén. Amazon, Microsoft, Google e IBM están liderando esta oleada de servicios AIaaS que permiten desde entrenamientos a puestas en producción de manera rápida. En el momento de escribir este libro, Amazon AIaaS estaba disponible a dos niveles: analíticas predictivas con Amazon Machine Learning y la herramienta SageMaker  para la construcción y despliegue rápido de modelos. Microsoft ofrece sus servicios a través de su Azure Machine Learning que puede ser dividido en dos categorías principales también: Azure Machine Learning Studio y Azure Intelligence Gallery. Google ofrece Prediction API  y el Google ML Engine. IBM ofrece servicios AIaaS a través de su Watson Analytics. Y  no olvidemos soluciones que ya vienen de startups, como BigML (nacida en Barcelona) Sin duda, la inteligencia artificial liderará la próxima revolución. Su éxito dependerá en gran medida de la creatividad de las empresas y no tanto de la tecnología hardware en parte gracias a Cloud Computing.

Nueva forma de programar los algoritmos

Nos encontramos ante una nueva forma de programar, una forma de programar “colaborativa”, donde toda la comunidad de investigación y desarrollo coopera en mejorar los entornos de desarrollo, además de compartir de forma abierta los resultados que se van obteniendo. Esta nueva cultura “open-source” ha generado un circulo virtuoso de innovación que permite una mejora constante y exponencial de los algoritmos de inteligencia artificial. Veamos un poco más de detalle.

Mejoras en los algoritmos

Gracias a la mejora del hardware que ya hemos presentado y al disponer de más capacidad de computación por parte de los científicos que investigaban en el área, se ha podido avanzar de manera espectacular en el diseño de  nuevos algoritmos que han permitido superar importantes limitaciones detectadas en los mismos. Por ejemplo, hasta no hace muchos años era muy difícil entrenar redes de muchas capas desde un punto de vista del algoritmo. Pero en este último decenio ha habido enormes avances con mejoras en las funciones de activación, uso de redes preentrenadas, mejoras en algoritmos de optimización del entrenamiento, etc. Hoy, algorítmicamente hablando, podemos entrenar modelos de centenares de capas sin ningún problema. Otra cosa es si tenemos los recursos de computación para hacerlo realidad.

Un mundo open-source para la comunidad Deep Learning y la de inteligencia artificial

Hace algunos años, programar aplicaciones de inteligencia artificial, y en particular de Deep Learning,  requería experiencia en lenguajes como C++ y CUDA; hoy en día, con habilidades básicas de Python es suficiente. Esto ha sido posible gracias al gran número de frameworks de software de código abierto que han ido apareciendo, como Keras introducido en el libro anteriormente mencionado. Estos frameworks facilitan enormemente la creación y entrenamiento de los modelos y permiten abstraer las peculiaridades del hardware al diseñador del algoritmo para acelerar los procesos de entrenamiento. Puestos a destacar algunos, les propongo que se queden con TensorFlow, Keras y PyTorch, pues son los más dinámicos en estos momentos si nos basamos en los contributors y commits o stars de estos proyectos en GitHub.

Una cultura de publicación abierta

En estos últimos años, en esta área de investigación, en contraste con otros campos científicos, se ha generado una cultura de publicación abierta, en la que muchos investigadores publican sus resultados inmediatamente (sin esperar la aprobación de la revisión por pares habitual en los congresos) en bases de datos como por ejemplo la arxiv.org de la Universidad de Cornell (arXiv). Esto conlleva que haya mucho software disponible en open source asociado a estos artículos que permiten que este campo de investigación se mueva tremendamente rápido, puesto que cualquier nuevo hallazgo está inmediatamente a disposición para toda la comunidad para verlo y, si es el caso, construir encima. Esto supone una gran oportunidad para los consumidores de estas técnicas. Los motivos para publicar sus últimos avances abiertamente por parte de los grupos de investigación pueden ser diversos; por ejemplo, Google, al publicar los resultados, consolida su reputación como líder en el sector, atrayendo la siguiente ola de talento, que como muchos ya saben, es encontrar y atraer buenos profesionales informáticos es uno de los principales obstáculos para el avance del tema en estos momentos.

4.  Se avecinan cambios

¿Moda o ha venido para quedarse?

El número de personas que trabajan ya en inteligencia artificial y empresas que invierten en estos temas ha creado repentinamente un ritmo frenético, y los progresos científicos los acompañan: ¿la inteligencia artificial es una moda o ha venido para quedarse? Históricamente hablando, se dice que la primera revolución industrial utilizó la energía de vapor para mecanizar la producción en la segunda mitad del siglo XVIII; la segunda revolución utilizó la electricidad para impulsar la producción en masa a mediados del XIX, mientras que la tercera, utilizó la electrónica y el software en los años setenta del siglo pasado. Hoy nos encontramos frente a una nueva fuente de creación de valor en el área de procesamiento de información donde todo va a cambiar. Por este motivo, desde hace un tiempo en diferentes foros se insiste en que estamos ante la cuarta revolución industrial, marcada por avances tecnológicos como la inteligencia artificial (Machine Learning, Deep Learning, etc.), y en la que los ordenadores serán “todavía más sabios”. Estoy seguro de que la inteligencia artificial se convertirá en la herramienta de transformación social más importante creada jamás por la humanidad, por lo bueno y por lo malo. Esto presenta profundas implicaciones en nuestra sociedad tal como la conocemos, pues a consecuencia de ello se está empezando a generar un vivo debate sobre las repercusiones que tendrá la presente revolución, polarizando la opinión pública en bandos opuestos: los optimistas y los pesimistas, los utopistas y los excesivamente pragmáticos. En cualquier caso, todos coincidimos en que el mercado laboral cambiará profundamente en los próximos años; en esta línea, el informe titulado The Future of Jobs del World Economic Forum estima que dos de cada tres niños que están empezando actualmente estudios primarios tendrán trabajos muy diferentes a los nuestros, y, a la vez, desaparecerán muchísimos de los perfiles laborales que hoy conocemos. En definitiva, se apunta cómo este nuevo estadio representa un gran desafío a los trabajadores de cuello blanco de la sociedad del conocimiento, que hasta ahora parecían intocables, de la misma manera que la automatización de las fábricas en el siglo XX fue una revolución para los trabajadores de mono azul en las cadenas de montaje.

¿Y nosotros, los que “programamos”?

Actualmente, algunos de los perfiles profesionales que se salvan de los efectos negativos en esta cuarta revolución, a parte de los expertos en el área o dominio donde se aplica la inteligencia artificial y las tecnologías relacionadas, son los científicos y científicas de datos o ingenieros e ingenieras informáticas, los que presencian a nivel profesional un escenario muy afortunado en los años venideros. Sin ir más lejos esta mañana leía en La Vanguardia que la falta de profesionales informáticos cualificados lastra el crecimiento del sector digital en Barcelona. Es un efecto curioso el que se está produciendo. Como contratador de este perfil de profesionales que también soy, veo como las entrevistas de contratación en el sector también han cambiado: a menudo se trata de conseguir seducir al candidato contando las excelencias de la empresa, a fin de que la elijan de entre las varias opciones que disponen. Pero nada es eterno, y como todo va muy rápido, me atrevo a augurar que esta misma tecnología de la que estamos hablando provocará que en un futuro no muy lejano se necesiten muchas menos manos para programar, y menos cabezas para pensar algoritmos. En pocos años, veremos como muchos de los programas que manejarán nuestro día a día, hasta ahora construidos en base al modelo de software “tradicional” programado por ingenieros e ingenieras en informática o científicos y científicas de datos, se verán reemplazados por un software creado con técnicas de inteligencia artificial. No me malinterpreten: me encanta la “programación”, y que el éxito de Machine Learning se base fundamentalmente en los expertos humanos en el tema, pero creo que la cantidad de código que escribiremos los próximos años decaerá. Ya hemos empezado con entornos de interfaces gráficos de usuarios que facilitan enormemente el desarrollo de modelos. Pero aún más, ya hay sistemas de automatización de Machine Learning; algunos los llaman AutoML (Automated Machine Learning), para hacer más productivos a los científicos y científicas de datos y que puedan solucionar más problemas. Pero está previsto que estos mismos métodos y procesos que el AutoML proveerá irán evolucionando, poniéndola a disposición de profesionales no expertos en Machine Learning, ya que el rápido crecimiento de demanda de las aplicaciones de Machine Learning ha creado una demanda de profesionales imposible de cubrir, y esto está provocando inevitablemente poner el foco en entornos de AutoML que pueden usarse fácilmente y sin conocimiento experto. En resumen, las máquinas más inteligentes quizás también irán desplazando gradualmente a este selecto grupo de profesionales, con la paradoja de que los “culpables” de ello seamos, a su vez, sus propios creadores.

Ética y responsabilidad social

La inteligencia artificial va a tener un profundo impacto en nuestra sociedad. Y es importante preguntarse cómo vamos a utilizar esta inteligencia artificial, porque los impactos positivos que todos abrazaremos con alegría pueden venir junto con importantes problemas, como puede ser los rápidos cambios disruptivos en el mercado laboral, en el que la inteligencia artificial eliminará los trabajos que son automatizables (en Oxford calculan que el 47% de los actuales empleos es automatizable). Hay un error fundamental en relación con las tecnologías emergentes que es culpar a la tecnología en vez de la sociedad que la utiliza. Porque, de entrada, como con cualquier tecnología poderosa, es inherentemente neutral en sí misma. Depende de cómo nosotros, como seres humanos en nuestra sociedad, decidamos que la vamos a implementar, que espero que sea de manera responsable y para el beneficio de todos. Para asegurarnos de que las elecciones colectivas que se tomen sobre la inteligencia artificial en los próximos años sea para el beneficio de todos y todas,  debemos tomar un papel activo en la definición y discusión de cómo la inteligencia artificial determinará nuestro futuro. Y esto es posible porque creo sinceramente que comprender los principios básicos de la inteligencia artificial está al alcance de la gran mayoría de ciudadanos y ciudadanas. No se vale eludir responsabilidades individuales y justificarse con la supuesta “tendencia de los tecnólogos a reflexionar tan poco acerca de las consecuencias sociales y políticas de sus artefactos“. Es responsabilidad de todos, aunque requiera esfuerzo entrar en estos temas a todos y cada uno de nosotros.

Pasar a la acción ¡ya!

Y todo esto lo apunto en un momento en que la inteligencia artificial todavía no se ha desplegado ampliamente y es difícil hacerse una idea del gran impacto que tendrá, al igual que en 1995 lo era el imaginarse el impacto futuro de internet. En aquel entonces, la mayoría de la gente no veía cómo internet era relevante para ellos y cómo iba a cambiar sus vidas. Y pensando en su negocio o empresa, si aún no tiene una estrategia de inteligencia artificial en la antes de entrar en el 2020, es como no tener una estrategia en relación a los móviles en 2010 o, lo que es peor, una estrategia de Internet en 2000.

Clausura

Tenemos el deber de esforzarnos para comprender los avances de la inteligencia artificial para poder decidir libremente que límites queremos ponerle a su impacto que será mucho mayor del que tubo Internet. Porque nos guste o no, “las revoluciones políticas más importantes no se están produciendo en los parlamentos, las fábricas y las calles sino en los laboratorios y las empresas tecnológicas“. Todos y cada uno de nosotros somos los únicos responsables de que este progreso no nos conduzca a una autocracia digital distópica.