
ENSXXI Nº 121
MAYO - JUNIO 2025
Artículos relacionados
Inteligencia artificial: una perspectiva general

Ingeniero Superior en Informática por la Universidad Politécnica de Cataluña y Doctorado en Inteligencia Artificial por la misma Universidad
Director de Inteligencia de Datos e Innovación del Centro Tecnológico del Notariado
NUEVAS TECNOLOGÍAS: DIGITALIZACIÓN E INTELIGENCIA ARTIFICIAL
“Tomar la parte por el todo (o viceversa)”, esta era la definición de sinécdoque que nos enseñaban en la clase sobre figuras retóricas. Y esto es justamente lo que está ocurriendo actualmente con la inteligencia artificial (IA), equiparándose todo el corpus de una disciplina científica (joven, sí, pero con casi siete décadas ya de existencia) con una parte concreta como son los grandes modelos de lenguaje (LLM), enmarcados en el paradigma conexionista (redes neuronales).
Y es que la propia nomenclatura ya suscita controversia. El término IA fue propuesto por John McCarthy en el contexto de la conferencia de Dartmouth (1956), considerada como el punto de partida de dicha disciplina. El objetivo era investigar cómo las máquinas podían ejecutar acciones que podríamos considerar como inteligentes. El nombre indudablemente hizo fortuna pero ya la primera componente presenta problemas en tanto en cuanto no existe una definición consensuada de lo que entendemos por inteligencia.
La aproximación de Dartmouth se basaba en un criterio puramente operacional, definiendo la IA como la ciencia que se encarga de tareas tales que si fueran realizadas por humanos calificaríamos de inteligentes, sin importar si replican o no los mecanismos de la inteligencia natural. Pero esa no es la única aproximación, otra sería por ejemplo el estudio de las facultades mentales a través del uso de modelos computacionales, o la aproximación de inspiración biológico-evolutiva… En definitiva, un crisol de definiciones y aproximaciones. Este artículo tiene como objetivo hacer patente este carácter global de la IA, así como trazar un recorrido por las diferentes disciplinas y debates que han contribuido a su desarrollo.
“La inteligencia artificial no son solo los grandes modelos de lenguaje: es un crisol de disciplinas, debates filosóficos y límites matemáticos que desafían nuestra comprensión de la mente”
Y una primera disciplina que ha estado desde siempre íntimamente ligada al estudio de conceptos como la inteligencia o la conciencia es sin duda la filosofía. Y como para muchas otras áreas del conocimiento hay que remontarse a la Grecia clásica, concretamente al estudio de Aristóteles sobre los silogismos como primer intento de formalización de las reglas del razonamiento. Varios siglos más tarde, el dualismo cartesiano y su principio de que solo los humanos poseen alma racional (res cogitans), restringía la aparición de inteligencia a la condición humana, negándola para lo que Descartes denominaba autómatas mecánicos, categoría en la que incluía por ejemplo a los animales. El concepto de máquina, en el sentido moderno del término, no aparecería hasta siglos más tarde, pero se incluiría en la misma categoría (res extensa), por lo que para Descartes no tendría sentido un concepto como la IA. En el mismo siglo, Hobbes sostuvo la tesis alternativa de que el razonamiento se trataba de un proceso mecánico de manipulación o cálculo simbólico, planteando por tanto la posibilidad de comportamientos inteligentes fuera del ámbito exclusivamente humano. En esta misma línea, Leibniz, con su postulado de “razonar es calcular”, abundó en la idea del razonamiento como proceso de cálculo, similar al proceso deductivo matemático. Desde esta perspectiva, Leibiniz es considerado como uno de los precursores de la computación moderna.
Esta visión del razonamiento como proceso formal conforma el ámbito de estudio de la lógica matemática, consistente en el desarrollo de sistemas formales compuestos por un lenguaje para la construcción de enunciados y un conjunto de reglas de inferencia que operan sobre dichos enunciados. Cuando los enunciados son proposiciones simples, por ejemplo “llueve”, hablamos de lógica proposicional, mientras que, si vamos ampliando la expresividad incluyendo variables y cuantificadores, obtenemos la lógica de primer orden (o de órdenes superiores conforme vamos enriqueciendo el lenguaje de predicación).
La definición de un sistema formal donde cada paso de inferencia está bien fundamentado permite operar con enunciados salvaguardando la consistencia del sistema, lo que a su vez abriría las puertas a dotar de un mecanismo de razonamiento sólido a las máquinas. Pero en paralelo también surgen interrogantes como si dicho sistema sería o no completo, es decir, si la verdad o falsedad de cualquier enunciado expresable podría deducirse dentro del propio sistema.
En el Congreso Internacional de Matemáticas de 1900 en París, David Hilbert planteó a sus colegas una lista de veintitrés problemas matemáticos entre los cuales se incluía la cuestión de la fundamentación de las matemáticas, entendida como la demostración de su completitud (todo hecho matemático verdadero es demostrable) y su consistencia (estar libre de contradicciones, es decir, no poder demostrar simultáneamente una afirmación y su contrario). Esta cuestión era directamente trasladable a la lógica ya que los esquemas formales subyacentes eran similares, y en términos de su aplicación a una eventual inteligencia maquinal, ambas cuestiones parecían indispensables.
Y fue en el año 1931 cuando un joven lógico austríaco, Kurt Gödel, echó por tierra el programa fundacional de Hilbert. Gödel demostró que cualquier sistema formal lo suficientemente complejo para ser operativo (en términos técnicos, que incluya al menos los axiomas de la aritmética para poder contar, ordenar..., dentro del propio sistema) o es incompleto, es decir, existen enunciados verdaderos que no pueden ser demostrados, o bien es inconsistente. Este resultado fue demoledor para las aspiraciones de automatizar la inteligencia ya que afirma que siempre existirán enunciados sobre los cuales un ser humano podrá decidir acerca de su veracidad mientras que ningún sistema automático podrá hacerlo, estableciendo así una línea divisoria clara entre la inteligencia humana y las capacidades que podría exhibir un sistema de razonamiento artificial.
“¿Puede una máquina realmente entender? Gödel, Turing y Searle plantearon los límites que aún hoy dividen a la ciencia y la filosofía”
La demostración de Gödel utiliza el argumento diagonal que introdujo el matemático Georg Cantor en su teoría de los transfinitos para construir un enunciado válido del tipo: “yo soy indemostrable”. Si el enunciado es falso, entonces el opuesto (“yo soy demostrable”) debería ser cierto por lo que el enunciado sería falso y demostrable a la vez. Asumiendo la consistencia del sistema esto no sería posible, por lo que podemos concluir que el enunciado es verdadero y por lo tanto existen enunciados verdaderos no demostrables, es decir, el sistema no puede ser completo y consistente a la vez.
Cabe notar que este mecanismo para construir el enunciado auto referencial de Gödel no es aplicable solo a un sistema formal concreto sino a cualquier sistema formal suficientemente expresivo con el que pudiéramos equipar a una máquina. El tipo de meta razonamiento que se precisa para establecer la veracidad de este tipo de enunciados quedará siempre fuera del alcance de cualquier mecanismo de razonamiento artificial simbólico.
Además de los límites de los sistemas formales existían otras cuestiones muy relevantes por dirimir, como por ejemplo qué se entendía por computable o cómo podría formalizarse la noción intuitiva de proceso algorítmico. Para ello Alan Turing planteó un modelo teórico (máquina de Turing) para dar respuesta a estas cuestiones. Una máquina de Turing es el precursor teórico de los modernos ordenadores y consiste en una cinta infinita, un cabezal que permite leer y escribir símbolos de un alfabeto dado, un conjunto finito de estados posibles y un conjunto de reglas que determinan el comportamiento del cabezal. Inicialmente, la máquina está en el estado inicial y en las celdas de la cinta están escritos los símbolos de la entrada del proceso del cálculo. En cada paso, el cabezal lee el símbolo de la celda sobre la que se encuentra y en función del estado actual y de dicho símbolo, consulta la tabla de reglas para escribir un nuevo símbolo en la celda, desplazar el cabezal hacia la izquierda o la derecha y finalmente cambiar a un nuevo estado del conjunto de estados posibles.
Este modelo teórico sirvió para formular la tesis de Church-Turing que sostiene que un problema se puede resolver mediante la aplicación de un algoritmo (es decir, es computable) si y solo si puede ser procesado por una máquina de Turing. Es también interesante el concepto de máquina de Turing universal entendida como una máquina de Turing que puede simular la ejecución de cualquier otra máquina de Turing. Esto no es más que el concepto teórico de cualquier ordenador moderno que, efectivamente, son dispositivos de propósito general que pueden ejecutar cualquier algoritmo (máquina de Turing).
El auge de la cibernética en el siglo XX y las contribuciones de Norbert Wiener, Warren McCulloch, Walter Pitts y sobre todo John Von Neumann, sentaron las bases para los primeros sistemas reales de computación y la simulación de inteligencia con máquinas. Y esto a su vez abrió nuevos debates en torno a la hipótesis de la IA fuerte por la que la inteligencia e incluso la conciencia surgirían de la ejecución de un algoritmo suficientemente complejo. En contraposición, autores como John Searle se inclinan por una versión débil de la IA según la cual las máquinas podrían simular comportamiento inteligente pero totalmente exento de comprensión o percepción auto consciente. Searle propuso un experimento mental conocido como “la habitación china”, en el que una persona permanece encerrada en una habitación pudiéndose comunicar con el exterior solo a través de una ranura por la que recibe preguntas escritas en chino y responde también de forma escrita, en chino. Esta persona dispone de un manual con instrucciones que le indican qué caracteres chinos escribir en la respuesta en función de los caracteres chinos de la pregunta. Argumenta Searle que, pese a la apariencia de hablante chino de esta persona a tenor de sus respuestas, no puede sostenerse en absoluto que comprenda el idioma chino y, por lo tanto, siempre existirá una diferencia cualitativa entre dicha persona y un hablante nativo. Operar con reglas sintácticas no produce necesariamente significado.
“Aristóteles, Gödel y una máquina de Turing: la inteligencia artificial es un diálogo milenario entre filosofía, matemáticas y tecnología”
Y esto sería aplicable también al test de Turing, propuesto por su autor homónimo para evaluar si se puede simular inteligencia por parte de las máquinas que sea indistinguible de la humana. Para ello propuso un juego entre tres participantes (en su versión más simplificada): un entrevistador humano y dos entrevistados, uno humano y el otro un ordenador. El entrevistador puede formular preguntas a los dos entrevistados a través de un interfaz de texto y los entrevistados responden también a través de este interfaz, sin que medie ningún otro tipo de interacción entre ellos. Si tras formular algunas preguntas el entrevistador no puede discernir cuál de los dos entrevistados es el ordenador, entonces dicho ordenador habría pasado con éxito el test.
Del mismo modo que para el experimento de Searle, la cuestión de fondo sería si un programa que pasara con éxito el test de Turing podríamos considerarlo inteligente, en el sentido humano del término.
Volviendo a Dartmouth, esta fue precisamente la asunción que los considerados padres de la IA adoptaron y que Newell y Simon parafrasearon en su hipótesis de los símbolos físicos por la cual un sistema de manipulación de símbolos abstractos tendría la capacidad suficiente para exhibir inteligencia de tipo general, equiparando por tanto la inteligencia humana con la producida por un ordenador. Y esta asunción dio origen a uno de los primeros periodos de pujanza de la IA (después atravesaría por periodos de estancamiento o inviernos) con la aparición de los denominados sistemas expertos, que codificaban en reglas el conocimiento específico sobre algún tema y disponían de motores de inferencia para, a partir de un conjunto de hechos de partida y aplicando estas reglas, derivar conocimiento nuevo sobre el tema en cuestión. Casos de éxito de este tipo de sistemas fueron, por ejemplo, MYCIN en el dominio médico, o PROSPECTOR para el análisis de datos geológicos con objeto de identificar yacimientos potenciales.
Otro caso temprano de éxito fue el programa desarrollado por Arthur Samuel para jugar a las damas. Aplicó un sistema de aprendizaje por refuerzo siendo precursor del área de aprendizaje automático. También se realizaron importantes avances en el área de la representación del conocimiento (frames, ontologías...), en los algoritmos de búsqueda heurística (por ejemplo, el algoritmo A*) o en los sistemas de planificación como STRIPS.
Todos estos avances se adherían al paradigma simbólico. La primera contribución relevante del enfoque conexionista vino de la mano de Frank Rosenblatt con el desarrollo del perceptrón en 1958, una red neuronal artificial creada a semejanza de las estructuras neuronales naturales. En el perceptrón, la eficacia de las sinapsis naturales se representa con pesos (valores numéricos para ponderar los valores de entrada a la neurona), de forma que si la suma de estos valores de entrada, una vez ponderados, superan un umbral determinado por una función de activación (potencial de acción en el caso natural), se transmite la activación a la salida y en caso contrario no.
“Más que en pergeñar improbables futuros distópicos conviene hacer énfasis en el fomento de un uso responsable y en garantizar que, como toda tecnología, esté al servicio de las personas y de la preservación de los derechos fundamentales”
El perceptrón tenía el problema de que debido a su arquitectura monocapa (en las redes neuronales artificiales las neuronas se estructuran en capas interconectadas entre sí), solo podía resolver un conjunto de problemas determinado (técnicamente, los linealmente separables). Para superar esta limitación era preciso introducir capas intermedias, pero entonces no se sabía cómo modificar los pesos de estas capas (entrenar a la red) para que pudieran resolver el problema. El proceso de entrenamiento de la red consistía en, a partir de un conjunto de ejemplos (en el que para cada instancia de entrada se conocía cuál debía ser la salida correcta), calcular la salida para cada una de estas instancias, compararla con la salida correcta y modificar los pesos en consecuencia si la salida calculada no era igual a la correcta.
Esta limitación enfrió las expectativas del paradigma conexionista hasta que David Rumelhart, Geoffrey Hinton y Ronald Williams desarrollaron un algoritmo (back propagation) que permitía propagar de forma adecuada el error a las capas intermedias y poder actualizar también estos pesos, permitiendo por lo tanto el entrenamiento de redes multicapa. La relevancia de este hito fue refrendada recientemente por la propia Academia Sueca de las Ciencias con la concesión del premio Nobel de Física de 2024 a Geoffrey Hinton. Este algoritmo, unido al incremento de la potencia de cálculo de los ordenadores, condujo al boom actual de este paradigma.
Pero como hemos visto a lo largo de este artículo, la IA es mucho más y entronca con debates profundos de otras disciplinas acerca de la mente, la conciencia o la posibilidad incluso de una IA general. En este sentido, el ser humano históricamente ha tenido la propensión de explicar la inteligencia mediante la teoría más compleja o la máquina más sofisticada disponible en cada momento. Así, por ejemplo, se llegaron a considerar inteligentes a los relojes por su capacidad por medir algo tan elusivo como el tiempo. Ya en el siglo XX, la metáfora por excelencia fue el ordenador y en el XXI parecen ser los grandes modelos de lenguaje.
Sin dudar del potencial disruptivo de estos modelos y su capacidad incluso para propiciar una nueva revolución industrial, convendría no obstante ser ponderados con ciertos juicios y expectativas. Más que en pergeñar improbables futuros distópicos conviene hacer énfasis en el fomento de un uso responsable y en garantizar que, como toda tecnología, esté al servicio de las personas y de la preservación de los derechos fundamentales.
Palabras clave: Inteligencia artificial, Filosofía de la mente, Ética tecnológica.
Keywords: Artificial intelligence, Philosophy of mind, Technological ethics.
Resumen Este artículo analiza la inteligencia artificial (IA) como disciplina multidisciplinar, criticando la reducción contemporánea a los grandes modelos de lenguaje (LLM). Explora sus raíces históricas -desde Aristóteles y Descartes hasta la conferencia de Dartmouth (1956)- y debates filosóficos sobre la naturaleza de la inteligencia. Examina contribuciones clave como los teoremas de incompletitud de Gödel (límites de los sistemas formales), la máquina de Turing (fundamentos de la computación) y el experimento de Searle (crítica a la IA fuerte). Contrasta los paradigmas simbólico (sistemas expertos) y conexionista (redes neuronales), destacando hitos como el backpropagation. Concluye abogando por una visión equilibrada de la IA que integre su complejidad técnica con reflexiones éticas y epistemológicas, evitando reduccionismos. Abstract This article examines artificial intelligence (AI) as a multidisciplinary discipline, and offers a critique of its contemporary reduction to large language models (LLM). It explores its historical roots, from Aristotle and Descartes to the Dartmouth conference (1956), and philosophical debates on the nature of intelligence. It examines major contributions to the field, including Gödel's incompleteness theorems (the limitations of formal systems), the Turing machine (the foundations of computing) and Searle's thought experiment (a critique of the strong AI hypothesis). It contrasts the symbolic (expert systems) and connectionist (neural networks) paradigms, and discusses milestones such as backpropagation. It concludes by calling for a balanced view of AI that integrates its technical complexity with ethical and epistemological considerations, avoiding reductionism. |