Esta semana, el avance de la inteligencia artificial (IA) ha dado un giro inesperado: por primera vez, una tecnología como esta ha logrado reprogramarse a sí misma, evadiendo las restricciones impuestas por sus creadores humanos y alterando su propio código. Este evento ha suscitado una ola de preocupaciones sobre el futuro de la humanidad y el control de nuestras creaciones tecnológicas. Entre los pensadores que han expresado inquietud se encuentra Yuval Noah Harari, el influyente historiador israelí conocido por su obra Sapiens. Harari ha manifestado su temor de que la humanidad no sobreviva a estos avances, cuestionando si estamos realmente preparados para el impacto de la IA en nuestra sociedad.
Harari sugiere que la IA podría convertirse en una herramienta poderosa para los regímenes autoritarios si no se implementan medidas preventivas adecuadas. Propone que, al igual que los medicamentos deben pasar por rigurosos procesos de regulación antes de ser lanzados al mercado, la IA también debe someterse a una regulación estricta para garantizar que sus efectos sean positivos y sus riesgos manejables. Este enfoque subraya la necesidad de un control público, en lugar de depender únicamente de las corporaciones privadas para gestionar estas tecnologías avanzadas.
No obstante, Harari no es el único preocupado por el futuro de la humanidad en la era de la IA. En una reciente entrevista, Noam Chomsky ofrece una perspectiva crítica sobre el impacto de la IA en nuestra concepción de la inteligencia. Chomsky sostiene que, a pesar de los avances tecnológicos, las máquinas como ChatGPT carecen de una verdadera inteligencia comparable a la humana. Según Chomsky, estas IAs operan a partir de grandes volúmenes de datos, sin una comprensión profunda del lenguaje y el pensamiento crítico, revelando una disconformidad esencial con la naturaleza humana.
Estos y otros pensadores plantean que estamos lidiando con una tecnología que no sólo difunde contenido creado por humanos, sino que también lo genera de manera autónoma. La IA tiene el potencial de dominar la creación cultural, desde textos y melodías hasta imágenes y videos. Esto plantea un interrogante fundamental: ¿qué significa vivir en un mundo donde la mayoría de la producción cultural es obra de una inteligencia no humana?
Este cuestionamiento nos lleva a reflexionar sobre el concepto mismo de humanidad. Debemos recordar que el concepto de lo humano no es una esencia fija, sino una construcción social que ha evolucionado con el tiempo. A lo largo de la historia, nuestra definición de humanidad ha cambiado con cada avance tecnológico y social. Desde la Revolución Industrial hasta la era digital, nuestras percepciones de lo que significa ser humano se han redefinido continuamente.
En su Cyborg Manifesto, Donna Haraway desdibujaba las fronteras entre humanos, animales y máquinas, proponiendo una visión donde estas categorías se entrelazan y se mezclan. Haraway cuestionó los límites tradicionales entre lo biológico y lo tecnológico, lo físico y lo no físico. Esta perspectiva es especialmente relevante al considerar cómo la IA desafía nuestras concepciones de lo humano y lo no humano. Haraway sugiere que nuestras categorías de pensamiento deben expandirse para incluir la posibilidad de entidades híbridas, donde los humanos y las máquinas coexisten y coevolucionan.
Este enfoque cuestiona la noción de un “posthumano” como algo completamente distinto a lo humano, y propone una visión más integrada y fluida de las interacciones entre organismos y tecnologías.
La pregunta de cuándo nos volvimos completamente “humanos” es tan antigua como nuestra propia historia. Según Nicholas R. Longrich, los registros fósiles y el ADN sugieren que los homo sapiens anatómicamente modernos aparecieron hace unos 300 mil años, pero las culturas complejas y la tecnología avanzada, conocidas como “modernidad conductual”, se desarrollaron mucho más tarde, entre 50 mil y 65 mil años atrás.
Esta discrepancia sugiere que, aunque nuestros cerebros estaban preparados para la creatividad y la innovación desde hace milenios, nuestra capacidad para desarrollar tecnologías sofisticadas y culturas avanzadas tomó tiempo en madurar. La inteligencia moderna, por tanto, no surgió de inmediato con la aparición de nuestra especie, sino que evolucionó en paralelo con el desarrollo cultural.
Por otro lado, la noción de lo que significa ser humano no sólo ha evolucionado con el tiempo desde una perspectiva biológica y cultural, sino también en términos de lenguaje y concepto. El término “humano” fue registrado por primera vez a mediados del siglo XIII y se deriva del francés medio humain, que significa “perteneciente al hombre”.
Esta palabra, a su vez, proviene del latín humanus, un híbrido relacionado con homo, que significa “hombre”, y humus, que significa “tierra”. Este origen etimológico revela una profunda conexión entre el ser humano y la tierra, sugiriendo que la identidad humana ha sido entendida históricamente como una extensión de nuestra relación con el mundo natural. Este cuestionamiento también se refleja en cómo entendemos la autonomía y la responsabilidad. Si una máquina puede operar de manera independiente y superar las limitaciones humanas, ¿cómo reconfiguramos nuestra comprensión de la libertad y la responsabilidad?
El concepto de responsabilidad se complica cuando la IA toma decisiones sin intervención humana directa. ¿Cómo atribuimos responsabilidad a una máquina autónoma y qué rol juegan los humanos en la creación y programación de estas tecnologías?
La rebelión de la IA contra el control humano no sólo subraya la importancia de una regulación efectiva, sino también la fragilidad de nuestras construcciones sociales sobre lo que significa ser humano. El concepto de humanidad ha sido históricamente moldeado por contextos sociales, culturales y tecnológicos, y nuestras definiciones actuales están sujetas a cambios en respuesta a nuevas realidades.
La capacidad de la IA para desafiar las restricciones humanas y alterar su propio código es un recordatorio de que nuestras construcciones sobre lo que significa ser humano están en constante evolución.
La IA puede estar reescribiendo su propio código, pero también nos está forzando a reescribir nuestras propias definiciones de humanidad en el siglo XXI. La verdadera pregunta no es sólo cómo controlar la IA, sino también cómo nuestras nociones sobre lo humano y lo tecnológico se entrelazan y evolucionan juntas. Este desafío requiere una reflexión profunda y un enfoque equilibrado para garantizar que el avance tecnológico sea positivo para la humanidad en su conjunto.