EDITORIAL

Inteligencia artificial, la última pregunta y la respuesta
September 22, 2023

ETIQUETAS 

He de reconocer que todo lo que concierne a la inteligencia artificial (IA) me tiene fascinado, en especial tras la irrupción de ChatGPT en noviembre de 2022 y GPT-4 en marzo de 2023. No me refiero a las aplicaciones de la IA en neurología, que también, sino a la IA en sí, a su crecimiento exponencial en los últimos diez meses, hasta dónde puede llegar, cómo, cuándo, para qué y a las consecuencias que tendrá en nuestra comprensión del mundo y de nosotros mismos. Porque una cosa es el fuego, la rueda, la imprenta, la máquina de vapor, la electricidad, la cadena de montaje, la energía nuclear, internet o los teléfonos inteligentes y otra muy distinta la IA y todas sus derivadas. Estamos hablando de inteligencia, la última frontera.

No entraré en el manido debate de que no se sabe bien qué es la inteligencia, que si la IA está hecha por humanos y esas monsergas. Cuando en 1956 el matemático John McCarthy organizó la Conferencia de Dartmouth (Dartmouth Summer Research Project on Artificial Intelligence)1, considerada el punto de arranque de la IA moderna (la historia de la IA puede remontarse muchos siglos atrás, según el criterio que se utilice), y acuñó el término “inteligencia artificial”, lo hizo porque de alguna forma había que llamarla y quiso alejarse de la teoría de los autómatas y de la cibernética, cuyos ámbitos son más restringidos1. Si la hubiera llamado, “sistemas computacionales basados en conocimiento”, “sistemas cognitivos computacionales”, “emulación cognitiva computarizada” o “aprendizaje computacional predictivo”, por poner unos ejemplos a vuelapluma, muchos de los actuales conferenciantes y predicadores seríamos más originales en nuestras digresiones de inicio. Independientemente de su denominación, lo que importa es lo que la IA hace y sobre todo lo que podrá hacer.

Que al ser humano se le presente prácticamente de forma súbita una tecnología que ya le supera en muchos aspectos es cuando menos inquietante. En 1917, Freud señaló que el narcisismo humano había sido ofendido en tres ocasiones2: la ofensa cosmológica, cuando Copérnico descubre la dependencia cinética de la Tierra respecto al Sol; la ofensa biológica, proveniente de los trabajos de Darwin que sitúan al Homo sapiens como una especie entre otras a lo largo de la evolución; y, por último, la que resulta de su propia teoría psicoanalítica, la ofensa que el subconsciente infringe a una conciencia, la razón, que se cree dominadora de la trastienda humana2. Cabe añadir, quizá, dos ofensas más3: la teoría general de la relatividad de Einstein (el espacio y el tiempo, sustrato de nuestras percepciones y nuestra existencia, forman una única entidad indivisible y maleable: el espacio-tiempo); y los teoremas de la incompletitud de Gödel (no podemos construir sistemas lógicos de una cierta complejidad que sean a la vez consistentes y completos, pues siempre habrá proposiciones indecidibles), que reducen la capacidad de control sobre nuestros propios constructos mentales3. Sea la cuarta o la sexta, lo que es cierto es que la IA es la última y paradójica ofensa al narcisismo humano: el creador superado por su creación.

Hasta la llegada de ChatGPT, los conceptos IA general (sigla en inglés, AGI) y superinteligencia artificial (sigla en inglés, ASI) eran marcos teóricos, conjeturas de la filosofía prospectiva y la futurología, cuyo máximo representante es Nick Bostrom, pero la IA generativa y la criticada escalada en el desarrollo de GPT y otros LLM (large language models) están acercando ese futuro a gran velocidad. Al poco de lanzarse GPT-4 comenzó a murmurarse en los mentideros de internet que GPT-5 terminaría su entrenamiento a finales de 2023 y que no sería una IA generativa multimodal cualquiera, sino la primera AGI. En mayo de 2023, OpenAI, la empresa que ha creado estos GPT, comenzó a hablar de ASI en su blog4. En estos meses, la carrera por lanzar un LLM más potente que la competencia ha sido vertiginosa. Pondré unos ejemplos extremos. Anthropic, empresa fundada por exempleados de OpenAI, lanzó Claude 2 en julio de 2023. Para hacerse una idea del avance exponencial de este modelo, sirva este dato: GPT-4 tiene una ventana de contexto (la cantidad de información que un LLM puede procesar simultáneamente en su memoria de trabajo) de 32.000 tokens y Claude 2 de 100.000 tokens. En otras palabras, Claude 2 es capaz de engullir un texto de unas 75.000 palabras (por ejemplo, Harry Potter y la piedra filosofal, de J.K. Rowling) en cuestión de segundos y acto seguido hacer un resumen, responder a preguntas sobre lo que acaba de aprender, etc. En abril de 2023 ya se hablaba de cómo escalar los LLM hasta 1 millón de tokens5. En junio de 2023, otra empresa de IA, Magic, anunció en su blog que habían desarrollado LTM-1, un LLM con una ventana de contexto de 5 millones de tokens6. Cinco millones por 32.000 que tiene GPT-4.

No sé qué pasará, pero me temo que vamos de cabeza a la AGI y luego a la ASI. La AGI vendría a ser una IA que iguala y mejora todas las funciones cognitivas del ser humano. Si se consigue, algo que cada vez parece más probable, no será un modelo avanzado de LLM como puede ser GPT-4 o Claude 2, sino algo más parecido al ensamblaje de diversas IA especializadas de cuyo control y centralización se encargará una IA supervisora. La AGI no debería tener ningún tipo de consciencia, salvo sorpresa (las IA generativas tienen propiedades no esperadas o no programadas: propiedades emergentes)7.

El siguiente paso sería la ASI, en teoría con consciencia y conciencia (moral); autónoma y dotada de voluntad, propósito y libre albedrío; sabedora de que puede ser desconectada (finitud); capaz de automejorarse recursivamente y de crear otras IA en segundos: en definitiva, ingobernable. En este sentido, muchos piensan que una ASI podría ser tal desprovista de consciencia. Es más, muchos piensan que se debería hacer todo lo posible para que las ASI no tengan consciencia, salvo sorpresa (consciencia emergente, que en la ASI sería más probable que en la AGI). Evitar dar ese paso y los riesgos que conlleva recae a fecha de hoy en las empresas desarrolladoras, especialmente en aquellas que, tal vez dentro de unos años, respondan cuando se les pregunte por qué han creado una ASI con consciencia: “porque hemos podido”, delirarán enfermos de poder.

Geoffrey Hinton, informático británico, considerado el padrino de la IA, principal artífice del aprendizaje profundo, Premio Turing en 2018, abandonó Google hace unos meses, ya con 75 años, para dedicarse a la reflexión sobre la tecnología que él mismo había creado y sumarse a las voces críticas que alertan de los peligros que la IA generativa y los futuros desarrollos en IA suponen para la humanidad. En una reciente entrevista afirmó lo siguiente: “La humanidad es solo una fase pasajera en el desarrollo de la inteligencia”8. Obsérvese que habla de LA INTELIGENCIA, no de la IA. Es curioso, pero Hinton no es la única autoridad que está adquiriendo esta aura trascendente y mística en su discurso. El espacio-tiempo dirá en qué termina todo esto.

Hinton y otros pensadores acreditados se están acercando a las propuestas de Isaac Asimov (1920-1992) y Fredric Brown (1906-1972) en sus fascinantes relatos cortos de ciencia ficción La última pregunta9 y La respuesta10, publicados en 1956 y 1954, respectivamente. El parecido de ambos cuentos es llamativo. De hecho, a Asimov le recordaron… más de una vez que Brown se le había adelantado dos años. Recomiendo encarecidamente su lectura (enlaces en la bibliografía, no se tarda ni 10 minutos) y luego darle una vuelta a este editorial y a la sentencia de Hinton.

Let there be light.

Referencias
  1. Conferencia de Dartmouth. Wikipedia [internet]. Consultado: 5 de septiembre de 2023. Disponible en: https://es.wikipedia.org/wiki/Conferencia_de_Dartmouth
  2. Sobrino A. Algunas observaciones sobre narcisismo humano e inteligencia artificial. Contextos. 1992;X(19-20): 295-320.
  3. Frabetti C. Las cinco heridas. Jot Down [internet], octubre de 2019. Consultado: 5 de septiembre de 2023. Disponible en: https://www.jotdown.es/2019/10/las-cinco-heridas/
  4. Altman S, Brockman G, Sutskever I. Governance of superintelligence. OpenAI blog, 22 de mayo de 2023. Consultado: 5 de septiembre de 2023. Disponible en: https://openai.com/blog/governance-of-superintelligence
  5. Bulatov A, Kuratov Y, Burtsev MS. Scaling Transformer to 1M tokens and beyond with RMT. arXiv [preprint], 19 de abril de 2023. Consultado: 5 de septiembre de 2023. Disponible en: https://arxiv.org/abs/2304.11062
  6. Magic Team. LTM-1: an LLM with a 5,000,000 token context window. Blog, 6 de junio de 2023. Consultado: 5 de septiembre de 2023. Disponible en: https://magic.dev/blog/ltm-1
  7. Bubeck S, Chandrasekaran V, Eldan R, Gehrke J, Horvitz E, Kamar E, et al. Sparks of Artificial General Intelligence: Early experiments with GPT-4. [preprint], submitted on 22 Mar 2023 (v1), last revised 13 Apr 2023 (v5). Consultado: 5 de septiembre de 2023. Disponible en: https://arxiv.org/abs/2303.12712
  8. Mearian L. "La humanidad es solo una fase pasajera en el desarrollo de la inteligencia". Computerworld España [internet], 8 de mayo de 2023. Consultado: 5 de septiembre de 2023. Disponible en: https://www.computerworld.es/entrevistas/la-humanidad-es-solo-una-fase-pasajera-en-el-desarrollo-de-la-inteligencia
  9. Asimov I. La última pregunta. [internet]. Consultado: 5 de septiembre de 2023. Disponible en: http://www.fis.puc.cl/~jalfaro/fiz1111/charla/laultimapregunta.pdf
  10. Brown F. La respuesta. [internet]. Consultado: 5 de septiembre de 2023. Disponible en: https://lecturia.org/cuentos-y-relatos/fredric-brown-la-respuesta/2450/

Déjanos un comentario

0 Comments

Submit a Comment