Monday, June 19, 2023

Definición de inteligencia artificial (por Asunción Gómez-Pérez)


Fragmento del texto Inteligencia artificial y lengua española. Discurso de ingreso en la Real Academia Española. Madrid, mayo 21 de 2023.


Comenzaré con un dato anecdótico que refuerza la importancia social del tema que nos ocupa. Recientemente, la Fundación del Español Urgente (FundéuRAE), promovida por la Real Academia Española y la Agencia EFE, otorgó el título de palabra del año 2022(1) a la expresión compleja inteligencia artificial, que es una denominación común y, por lo tanto, debe escribirse enteramente con minúscula, si bien la sigla IA ha de escribirse con mayúscula.

Pero, antes de entrar en materia, es obligado revisar cómo define el diccionario las unidades léxicas inteligencia, artificial e inteligencia artificial, expresiones que han evolucionado en el mapa de diccionarios de la lengua española desde 1780 hasta la versión 23.6 del DLE, del año 2022. Actualmente, el diccionario presenta ocho acepciones de la palabra inteligencia. Tomo como relevantes en este contexto la primera, que se refiere a la «capacidad de entender o comprender»; la segunda, «capacidad de resolver problemas»; la tercera, «conocimiento, comprensión, acto de entender; y la quinta, «habilidad, destreza y experiencia». Además, el diccionario proporciona cuatro significados para la palabra artificial, de los cuales son pertinentes los tres primeros: «hecho por mano o arte del hombre»; «no natural, falso»; y «producido por el ingenio humano». Finalmente, la locución inteligencia artificial se incorpora al diccionario en 1992, definida como «la atribuida a las máquinas capaces de hacer operaciones propias de los seres inteligentes»; la definición se actualiza en 2001 para referirse al «desarrollo y utilización de ordenadores con los que se intenta reproducir los procesos de la inteligencia humana»; y, actualmente, la inteligencia artificial se entiende como la «disciplina científica que se ocupa de crear programas informáticos que ejecutan operaciones comparables a las que realiza la mente humana, como el aprendizaje o el razonamiento lógico».

Hagamos un breve recorrido ahora por la historia de la inteligencia artificial. Debemos retrotraernos a finales de agosto de 1955, cuando los investigadores John McCarthy (del Dartmouth College), Marvin Minsky (de la Universidad de Harvard), Nathaniel Rochester (de IBM) y Claude Shannon (de los laboratorios Bell) propusieron que diez investigadores llevaran a cabo, durante un periodo de dos meses en el verano de 1956, un estudio sobre inteligencia artificial en el Dartmouth College. Plantearon demostrar la siguiente conjetura (2): «Cualquier aspecto del aprendizaje o cualquier otra característica de la inteligencia puede, en principio, estar tan precisamente descrita que se puede construir una máquina para simularla. Se intentará descubrir cómo hacer que las máquinas utilicen el lenguaje, formen abstracciones y conceptos, resuelvan tipos de problemas hasta ahora reservados a los humanos y se mejoren a sí mismas». La conferencia de Dartmouth se considera el evento fundacional de este campo de estudio, que surge como una disciplina científica de la informática, aunque comparte métodos y técnicas con otras ciencias, como las matemáticas, la estadística, la psicología, la lingüística, la filosofía y la economía, entre otras. Cuatro de los investigadores participantes obtuvieron con posterioridad el Premio Alan Turing, conocido como el Premio Nobel de la Informática: Marvin Minsky en 1969, John McCarthy en 1971 y, en 1975, Allen Newell y Herbert Simon, quien también fue premio nobel de economía en 1978.

Durante el siglo xx, el desarrollo tecnológico de la inteligencia artificial estuvo limitado por la potencia de los procesadores, por el espacio de almacenamiento de los ordenadores y por la escasez de datos disponibles. Durante estos años, los investigadores se afanaron en el diseño de algoritmos y modelos ingeniosos que pudieran ejecutarse en infraestructuras muy limitadas, para así resolver problemas complejos y evitar la explosión combinatoria del espacio de búsqueda. A modo de ejemplo, el primer asistente virtual no se llamaba Siri, Alexa o ChatGPT; se llamaba ELIZA(3) y fue construido en 1964. Eliza se ejecutó en una de las primeras máquinas con procesador, el IBM 3090(4), que tenía 32 kilobytes de memoria RAM, un procesador de 32 bits, velocidad de 0,5 megahercios, y realizaba 100 000 operaciones en coma flotante por segundo; es decir, 100 kiloflops por segundo. El precio del IBM 3090 era de, aproximadamente, un millón de dólares, lo que equivaldría, aproximadamente, a unos 22 millones de dólares de hoy. En 2023, se puede adquirir por unos 200 euros un teléfono móvil de gama media con un procesador de seis núcleos, 64 bits, una velocidad de 2,63 gigahercios, 3 gigabytes de memoria RAM y un rendimiento de 786 gigaflops. Por tanto, cualquier teléfono móvil de precio reducido tiene una velocidad 5300 veces mayor y una memoria 100 000 veces mayor, y realiza 7.8 millones de operaciones en coma flotante por segundo más que el IBM3090. Previamente, en 1962, el IBM 7090, que procesaba datos a una velocidad de 24 000 operaciones por segundo y ocupaba una sala, fue el ordenador de la NASA que realizó los cálculos matemáticos que posibilitaron a John Glenn orbitar la Tierra. Katherine Johnson trabajaba en la División Segregada de Cálculo del Ala Oeste del Centro de Investigación Langley. Ella fue quien verificó que los cálculos realizados por el IBM 7090 eran correctos. Como muestra la película biográfica dirigida por Theodore Melfi Hidden figures (Figuras ocultas), Johnson formó parte del grupo de personas, conocidas como computadoras, que trabajaban en la NASA realizando cálculos matemáticos antes de la incorporación de los ordenadores. Comparto con ustedes que, durante la elaboración de este discurso, he vuelto a repasar muchos de los artículos científicos publicados entonces, y realmente he disfrutado leyéndolos. ¡Qué altura intelectual la de aquellos investigadores que, con infraestructuras tan limitadas, llegaron tan lejos!

El siglo XXI ha traído nuevas infraestructuras digitales con importantes avances de ensueño en los procesadores, en la capacidad de almacenamiento y de comunicación de los ordenadores y en el desarrollo de multitud de máquinas y dispositivos interconectados, como teléfonos móviles, tabletas, robots, coches, tractores, drones, electrodomésticos, equipos de diagnóstico médico o cadenas de producción robotizadas, por mencionar solo algunos. Incluso se llega a ver al cuerpo humano como un «dispositivo» más en el que implantar chips con fines terapéuticos o de monitorización, o para mejorar y aumentar sus capacidades y transformar así la condición humana.

Los avances, como ustedes saben, requieren nuevas definiciones para términos ya existentes. Así, recientemente, la Comisión Europea ha definido los sistemas de inteligencia artificial, en el documento de guías éticas para una inteligencia artificial fiable(5), como «sistemas de software (y en ocasiones hardware) diseñados por humanos que, ante un objetivo complejo, actúan en el mundo físico o digital percibiendo su entorno a través de la adquisición e interpretación de datos estructurados, semiestructurados o nada estructurados, razonando con el conocimiento, procesando la información derivada de estos datos y decidiendo las mejores acciones a realizar para alcanzar el objetivo. Los sistemas de IA utilizan modelos simbólicos para razonar, aprender mediante modelos numéricos y adaptar su comportamiento analizando cómo se ve afectado el entorno por sus decisiones previas».

Ahora bien, dependiendo de la complejidad de la tarea que la inteligencia artificial resuelve, la literatura distingue dos tipos de inteligencia artificial: general y específica. La inteligencia artificial general es aquella que puede imitar por completo todas las capacidades relacionadas con la inteligencia, como la resolución de tareas complicadas y heterogéneas, la planificación, el aprendizaje, el razonamiento o la capacidad de abstraer y generalizar. Los investigadores Dahane, Lau y Houder plantean, en un artículo publicado en la prestigiosa revista Science, que, si algún día la máquina pudiera tener consciencia y ser consciente de sí misma, por ser capaz de monitorizarse y obtener información de este proceso de introspección, podría detectar sus debilidades y corregirlas, llegando así a la superinteligencia. Este es el término que se emplea para hacer referencia a la IA que supera con creces las capacidades humanas. En nuestros días, no existe esta superinteligencia artificial que sea capaz de resolver todas las tareas, simples o complejas, que se le planteen; al contrario, existen muchas inteligencias artificiales específicas que resuelven actividades concretas de forma muy satisfactoria. La tecnología avanza hacia la agregación de esas inteligencias artificiales para resolver situaciones cada vez más complejas y generalizar las soluciones a otros tipos de escenarios; por ejemplo, un coche autónomo capaz de conducir prácticamente sin intervención humana y, mientras conduce, realizar otras actividades, como calcular el camino más rápido entre dos puntos y reservar una mesa en un restaurante del gusto de los ocupantes. Esta inteligencia artificial especializada puede crecer a medida que interactúa con otras inteligencias artificiales también especializadas, aproximándose con ello, mediante un proceso de agregación, a una inteligencia artificial general. Thomas Cambpell(6) muestra en su artículo «Analogía de la escala de Kardashev: pensamiento a largo plazo sobre la inteligencia artificial», publicado en 2017, cómo la agregación de inteligencias artificiales puede evolucionar en el futuro hacia una superinteligencia con conciencia, lo cual nos lleva a plantear si la inteligencia artificial es motivo de preocupación o de optimismo.







----------------------
1. FundéuRAE (2022): Inteligencia artificial es la expresión del 2022 para la FundéuRAE. https://www.fundeu.es/recomendacion/inteligencia-artificial-es-la-expresion-del-2022-para-la-fundeurae/

2. J. McCarthy, M. L. Minsky, N. Rochester and C. E. Shannon (1955): A Proposal for the Dartmouth Summer Research Project on Artificial Intelligence. http://www-formal.stanford.edu/jmc/history/dartmouth/dartmouth.html

3. J. Weizenbaum (1966): «ELIZA. A Computer Program for the Study of Natural Language Communication between Man and Machine». Communications of the ACM, volume 9, number 1, 36-45. https://dl.acm.org/doi/10.1145/365153.365168

4. IBM (1987): IBM 3090 Processor Complex Models 200E and 400E https://www.ibm.com/common/ssi/ShowDoc.wss?docURL=/common/ssi/rep_ca/3/897/ENUS187-003/index.html

5. European Commission (2019): Ethics Guidelines for Trustworthy AI. https://ec.europa.eu/digital-single-market/en/news/ethics-guidelines-trustworthy-ai

6. T. Campbell (2017): Kardashev Scale Analogy: Long-Term Thinking about Artificial Intelligence. FutureGrasp, LCC. https://irp-cdn.multiscreensite.com/9297f8c7/files/uploaded/The%20Kardashev%20Scale-An%20AI%20Analogy_FINAL.pdf



--------------
(en formato pdf)

No comments:

Post a Comment