Lluís Nacenta: «Las posiciones tecnofóbicas no pueden ser de desconocimiento, sino de conocimiento crítico»

Podríamos afirmar sin temor a equivocarnos que el año 2023 será recordado por la eclosión de la Inteligencia Artificial generativa. Pero basta un paseo por la exposición «IA: Intel·ligència Artificial» para encontrar precedentes de algo parecido en el siglo XIII como el Ars Magna de Ramon Llull, una máquina que hubiera realizado demostraciones lógicas para validar la existencia de Dios, o el Franksenstein de Mary Shelley en 1818. Ya entrados en el siglo XX, la máquina Bombe de Alan Turing, responsable de descifrar las comunicaciones alemanas durante la Segunda Guerra Mundial o Deep Blue, la primera computadora que derrotó a Garri Kaspárov.

Este paseo por la exposición tiene aromas a ciencia ficción, esa sensación de que algo ya llegará si es que llega, cuando uno recuerda que no, que todo eso ya está allí fuera. Está pasando. Frente a esta realidad, hablamos con Lluís Nacenta, comisario de la exposición y tutor de tesis doctorales en BAU.

PREGUNTA: La inteligencia artificial hoy habla de manera muy similar a como lo harías tú o yo. No sabemos qué hará mañana, pero podemos intuir que esto no se detiene. Si la IA puede hablar hoy, ¿podrá pensar mañana, por ejemplo? Teniendo en cuenta esto, me hace reflexionar sobre si piensa, cómo podría esto redefinir lo que significa ser humano, qué significa ser un homo sapiens si hay otro elemento que también lo hace.

RESPUESTA: Lo que sucede es que cuando preguntas esto, pasas de hablar cada vez mejor a pensar, lo cual es un salto problemático. Es decir, aquí deberíamos entrar en el tema de si entre el lenguaje y el pensamiento hay alguna distancia o no. La inteligencia artificial tiene la propiedad, la virtud de plantear este debate filosófico. Marta Villegas, una científica del Barcelona Supercomputing Center – Centro Nacional de Supercomputación (BSC-CNS) con una gran experiencia en el desarrollo de los conocidos Large Language Models, como ChatGPT, dice: ‘quizás entre usar el lenguaje correctamente y pensar correctamente, no hay distancia’. Ella tiene una posición, podríamos decir, wittgensteiniana. Deberíamos ver si una máquina que es capaz de usar el lenguaje correctamente, dado que el lenguaje incorpora la semántica, es una máquina que sabe lo que está diciendo. Técnicamente, informáticamente, cuando miras cómo están programados estos grandes modelos de lenguaje, puedes decir que ChatGPT no sabe lo que está diciendo. ¿Por qué? Porque es una máquina estadística. Está entrenada para saber cuál es la palabra más probable que debería decir a continuación. Pura estadística. Y las técnicas de aprendizaje profundo son las que le permiten, por ejemplo, acertar el tono, saber si debe usar un tono más informal, literario o académico. Es un debate muy complejo, pero yo creo que la inteligencia artificial cambia la forma de pensar porque está cambiando el lenguaje y el lenguaje es la manifestación del pensamiento. Ahora, yo no me atrevería a afirmar, llegado a este punto, que piensa por sí sola. Habla muy bien y escribe muy bien, pero la forma en que está programada para llegar a este resultado lingüístico no tienen nada que ver con la forma en que nosotros pensamos. Cuando tú piensas una frase, piensas qué quieres decir, luego buscas las palabras para decirlo. La inteligencia artificial no piensa qué quiere decir, solo piensa qué palabra viene a continuación.

El homo sapiens se va transformando paulatinamente debido a la tecnología, eso está clarísimo. Por ejemplo, piensa en nuestra memoria. Nuestra memoria se ha transformado porque tenemos acceso a Internet de inmediato y, naturalmente, esto hace que tu memoria sea diferente, porque no almacenarás en la memoria cosas que puedes consultar en diez segundos.

¿Una memoria… peor?

Depende. Si haces un planteamiento tradicionalista, dirías que es peor, porque recuerdas menos cosas. Si haces un planteamiento más contemporáneo, la cuestión es que tú sabes lo que necesitas. Es como si una parte de nuestro cerebro se hubiera trasladado al exterior, que es la teoría de Marshall McLuhan, por ejemplo. Es una teoría muy interesante. Es decir, que somos cíborgs y que nuestro cerebro y nuestro cuerpo no están delimitados solo por su realidad orgánica, sino que es algo que opera en interconexión con partes sintéticas. No creo que sea ninguna locura decir que tu cerebro, en parte, es tu cerebro orgánico, pero en parte también son una serie de bases de datos a las que estás conectado diariamente.

¿Como si fuéramos un ordenador con periféricos?

Claro, somos cíborgs. Por ejemplo, ¿cómo vas a los lugares? Vas con un asistente de navegación. Esto es alucinante. Antes cogías un mapa de papel y el mapa de papel no era más que una foto desde arriba. Pero ahora vas con un asistente de navegación. Y esta máquina está percibiendo, es decir, está pensando dónde estás, hacia dónde te estás moviendo, a dónde vas y está buscando el mejor camino. Y es un diálogo, porque rara vez le haces caso ciegamente. Sabes que es un algoritmo, y a veces te hace ir por allá, pero tú sabes que por aquí es más rápido. Entonces, tu percepción del entorno, tu planificación de lo que harás y tu razonamiento para elegir la mejor opción es híbrido, es decir, entre tu cerebro orgánico, tus ojos y tu memoria, tu conocimiento, y una base de datos, un sistema de geolocalización y un sistema dinámico que, según cómo te muevas, sabe hacia dónde vas. ¡Eres un cíborg! Porque tus sentidos y tu entendimiento no son puramente orgánicos. Son orgánicos y digitales. Entonces, tu realidad es híbrida. Al final la inteligencia artificial es un incremento muy bestia, pero no es nada nuevo. Diríamos que incrementa, hace más urgentes unos debates que en cierto sentido ya estaban. Porque Internet, en este sentido, fue una revolución realmente muy bestia. En este sentido, ha cambiado el homo sapiens, ¿ha cambiado la manera de pensar, de hablar y de actuar? Yo estoy convencido que sí. Porque ahora es lo que Bernard Stiegler denomina el suplemento exterior del lenguaje y de la inteligencia. Una parte de nuestro cerebro está fuera de nuestro cuerpo.

 

 

¿Deberíamos considerar la creación de una nueva nomenclatura para el homo sapiens? Porque te escucho hablar y pienso en este sexto sentido que de repente es la tecnología, esta cosa periférica. No sé cuánto tiempo pasará antes de que algún pensador contemporáneo diga que ya estamos en otro estado.

Sí, es interesante que utilices la expresión ‘sexto sentido’ como una expresión contemporánea, cuando el sexto sentido es una expresión que Ramon Llull utilizaba en el siglo XIII. Pero estoy de acuerdo contigo. Personalmente, no me atrevería a cambiar ningún nombre. Pero es cierto que si estamos hablando de lo que es el ser humano, creo que todas las teorías posthumanistas, también recogidas por Rosi Braidotti, son un intento de esto. Es decir, la teoría posthumanista es un intento de reacción ante la crisis del humanismo, que es la crisis de la Ilustración y la crisis de la vida moderna. Y responde a esta sensibilidad de que el concepto de ser humano ya no es adecuado para describir cómo los homo sapiens de hoy vivimos. La teoría posthumanista es un intento claro en este sentido. El concepto del Antropoceno también lo es. Porque sitúa al ser humano en una escala geológica. Ahora hay una nueva era geológica en la que, por primera vez, el impacto del ser humano en el planeta ha transformado el orden geológico, las capas de la Tierra. Que es algo que está en cuestión. La geología, hoy en día, todavía está en debate sobre si estamos viviendo en el Antropoceno. Pero son intentos en esta dirección, claramente. Al final, una idea del ser humano, que proviene de la Ilustración, está en crisis.

En la exposición, me he fijado en el concepto de la «singularidad tecnológica» (el momento en el que la inteligencia artificial superaría la inteligencia humana). ¿Cuál es tu opinión al respecto?

Mi opinión es que no. Porque la singularidad requeriría una autonomía absoluta de la inteligencia artificial. Es decir, que tuviera la capacidad de pensar de manera totalmente independiente de los seres humanos. Llevo dos años investigando este tema, y no hay ningún científico que te hable de ninguna posibilidad real próxima de una inteligencia artificial totalmente autónoma. Y son interesantes los científicos que te dicen, ‘mira, yo creeré en la autonomía de la inteligencia artificial el día que yo diseñe un sistema para hacer una cosa y el sistema me diga: no, me da igual, voy a hacer otra cosa’. Y eso es inimaginable. Lo que ocurre es que cuando decimos que la inteligencia artificial aprende, significa que le das unas directrices generales sobre cómo hacer algo. Ella se optimiza a sí misma, encuentra la mejor manera y encuentra maneras que realmente no estaban programadas. Es decir, el ChatGPT, por sí solo, se mejora. Encuentra la manera de generar texto cada vez mejor de una manera que no ha sido planificada por OpenAI. Pero de ahí a la autonomía… El día que el ChatGPT deje de generar texto y diga, ‘¿sabes qué? Mi pasión es la danza. Ahora me dedicaré a eso’. Pero no, la inteligencia artificial es muy autónoma, pero no es 100% autónoma. Depende de los humanos en todas las fases de su desarrollo.

En la exposición, vemos que las implicaciones éticas de lo creado artificialmente no son nuevas. Y me ha gustado mucho que aparezca Frankenstein como ejemplo en la muestra. En la novela, Víctor Frankenstein crea vida y el monstruo se descontrola. ¿Cómo controlamos el Frankenstein?

Sí, sí, esto es un desafío muy complejo. Claro, en el caso de Frankenstein, Mary Shelley postula que es realmente un ser vivo autónomo por sí mismo, que tiene ‘free will’. Es decir, es un ser libre. Pero se debe entender que es una ficción poética y que, en cierto sentido, creo que Mary Shelley nos está hablando de un aspecto de lo humano. Es decir, de un aspecto de una dimensión incontrolable, una dimensión problemática. Habría una manera de entender a Frankenstein como decir que el monstruo Frankenstein es el doctor Frankenstein, Víctor Frankenstein. A un nivel más tecnológico, intentaría pensar en términos de responsabilidad. Es decir, porque la responsabilidad de lo que haga la criatura Frankenstein es de Víctor Frankenstein, ¿no? Pero si ahora vas a casa y te atropella un Tesla con modo de autoconducción, ¿consideras responsable a esa máquina? Porque eso es una inteligencia artificial. Yo creo que si ahora, y esto ha ocurrido, cuando un Tesla hace daño a alguien, el responsable no es Elon Musk o sus ingenieros o la persona que compró el Tesla. En todo caso, lo primero que haces es buscar a un humano. Ni se nos pasaría por la cabeza considerar responsable a la inteligencia artificial que controla ese coche. Y eso, para mí, es un síntoma inequívoco de que realmente no consideramos que el sistema sea 100% autónomo.

Ni el responsable tampoco.

Claro, la responsabilidad es la prueba del algodón. Si una entidad no es responsable, no es autónoma. Si no la consideramos responsable, no le estamos concediendo capacidad de decisión ni libre albedrío. No estamos diciendo que esta máquina haga lo que quiera. No, esta máquina hace cosas con un grado de autonomía espectacular, porque puede ir a la derecha, frenar, girar a la izquierda, etc. Tiene esta capacidad de elegir, pero realmente no tiene capacidad de decidir, de decir, ‘me caes mal, te atropello’. Las máquinas no tienen este tipo de atribución.

Si el responsable es el ser humano, la responsabilidad de que las implicaciones éticas no vayan más allá es de los seres humanos.

Claro.

Los estados deberían poner limitaciones. Eso entiendo, entonces.

Debería legislarse, sí. Lo siento, es una respuesta poco sexy, pero es muy importante regular la tecnología. Una tecnología tan poderosa como la inteligencia artificial ha comenzado a hacer cosas que nadie pensaba. Volvemos al ChatGPT. El hecho de que haya sido entrenado con textos a los que hemos contribuido, con tu uso del móvil e Internet, aportando datos a diario, esto debe regularse. ¿No te parece sospechoso que haya empresas privadas que te proporcionen servicios de forma gratuita? ¿Que Instagram, Gmail, etc., sean gratuitos? Si una empresa privada te proporciona un servicio gratuito, el producto eres tú. Si a mí Instagram me costara 12 euros al mes, es porque me están proporcionando un servicio que debo pagar. Para mí es reconfortante que me cobren y sospechoso que no lo hagan. Todo esto viene por la falta de marcos legales en relación a una tecnología. Y no es solo una tecnología muy poderosa, es una tecnología de uso generalizado. Esto debe regularse. Hay derechos nuestros que hasta ahora no nos habíamos visto en la situación de tener que proteger, como la privacidad. Antes, en la era digital, se solucionaba poniendo cortinas en las ventanas de tu casa. Pero la privacidad ahora requiere una regulación muy estricta sobre cómo se utilizan los sistemas digitales. Y esto está verde. ¿Quién lo hace? ¿Los estados? Yo entiendo lo que dices sobre el estado… ¿El estado-nación? Esa cosa tan extraña, tan localizada… No. ¿Pero la Unión Europea? ¿Las Naciones Unidas? Cataluña está regulando la inteligencia artificial. Está muy bien, pero ni los servidores están aquí ni las empresas tienen su sede aquí. Ahora Europa está haciendo su propia regulación de la inteligencia artificial, pero ¿qué pasará? Los técnicos lo explican bien. Esto debería ir acompañado del desarrollo de la tecnología europea, o las empresas estadounidenses harán esta extorsión de decir ‘ah, perfecto, no podréis usar Google, WhatsApp, Facebook, Instagram…’. Por lo tanto, se debería desarrollar una tecnología hecha en Europa con servidores en Europa para poder utilizarla con garantías legales dentro de los principios europeos.

 

 

En una reciente entrevista al profesor de Bellas Artes de BAU, Jaume Ferrete, habla sobre la creación de voces sintetizadas como Alexa. Y él nos decía que a esas voces les hemos atribuido nuestros sesgos sociales de género, raza, etc. A raíz de esto, en la rueda de prensa de presentación de la exposición, dijiste que la inteligencia artificial es racista. Me gustaría que me explicaras por qué.

Si la pregunta es si la inteligencia artificial es racista por sí sola, en rigor, como tecnología, no lo es. Lo que ocurre es que adquiere, incorpora y amplifica los sesgos racistas de los seres humanos que la han diseñado o que han contribuido con datos. Una inteligencia artificial generativa que produce imágenes, como Midjourney o Dall·e, ¿cómo se ha entrenado? Se ha entrenado con bases de datos de imágenes tomadas de Internet, imágenes subidas por seres humanos, y están muy lejos de ser neutras. Mira Instagram. En Instagram, todos somos guapos. La inteligencia artificial no lee el mundo, lee las imágenes del mundo y entre el mundo y las imágenes del mundo hay una gran distancia. Y la imagen que a ti te parece adecuada, ¿qué es? Tú crees que queda bien. Pero, ¿qué significa que queda bien? La inteligencia artificial amplifica los sesgos porque todo lo hace a una escala completamente diferente. Nunca trabaja con diez fotos. Trabaja con miles de millones de fotos. Si resulta que todos tendemos a pensar qué es un hombre guapo, qué es una mujer guapa, qué es un hombre inteligente, qué es una mujer inteligente, magnificado por miles de millones de fotos, habrá muchas imágenes infrarrepresentadas.

El ejemplo que le hacían dibujar a una inteligencia artificial, una persona doctora y siempre era un hombre blanco.

Aquí en la exposición hay una película de Carme Puche y dice esto: ‘Soy un doctor’. Y sale, evidentemente, un hombre blanco de mediana edad. ‘No, pero no soy un hombre. Soy una mujer. Soy una doctora’. Entonces, evidentemente, pone una mujer blanca y joven. ‘No, pero soy un doctor negro’. Pero entonces, te pone una imagen de mujeres jóvenes, guapísimas. ‘No, pero tengo 57 años’. Esto explica muy bien que la palabra ‘doctor’ lleva incorporada la imagen de un hombre blanco y relativamente joven. Esto es porque las bases de datos que han alimentado a esta inteligencia tienen una preeminencia alarmantemente grande de médicos hombres blancos. Y dices, ¿dónde está el racismo aquí? En muchas capas. Claro, probablemente hay un racismo sociológico. Tal vez haya más hombres blancos que llegan a ser médicos que mujeres blancas o que hombres negros o que mujeres negras. Y además, un racismo de la representación, por el número inferior de mujeres que están subrepresentadas en las imágenes.

Durante la entrevista ha ido apareciendo Frankenstein. En la obra, el monstruo Frankenstein, él mismo, se da cuenta de lo que ha hecho y se aísla. ¿Crees que veremos la inteligencia artificial autoaislada? Que no querrá compartir este mundo con nosotros.

(Ríe) No me atreveré a hacer ninguna proyección de futuro en este sentido. Pero sí que pienso que es útil y saludable que entendamos que nuestra forma de vida no es la única, que nuestra percepción del mundo no es la única, que nuestra inteligencia no es la única. Y en este sentido, me parece interesante la perspectiva de que tal vez un ente inteligente no humano pueda decidir que la forma humana de proceder no es interesante y que no tiene gracia, y que la mejor decisión que puede tomar es apartarse de los humanos. No me parece una idea alocada. Y es muy importante desde el punto de vista de los humanos entroncando de nuevo con la crisis del humanismo. El ser humano no es el centro del universo. Y es muy saludable para nosotros que entendamos que somos muy deficientes y muy precarios y que, por lo tanto, tenemos que aceptar la idea de que un ente inteligente pueda tener cero interés en nosotros. En este sentido, Frankenstein sigue siendo un relato profundamente humanista: en el fondo Frankenstein sigue pensando que él es inferior y que se tiene que destruir para no hacer daño a los humanos.

Los humanos, por el contrario, hemos demostrado que somos capaces de llevar a nuestro propio ecosistema al límite de la resistencia y tenemos la información científica que lo confirma y no estamos haciendo nada para evitarlo. ¿No es esta una especie de la que merece que te apartes? Ahora, parece que ha habido noticias que hablan de la existencia de vida extraterrestre. Enhorabuena, era evidente que no podíamos ser los únicos en un universo tan inmenso, ¿cómo podemos ser tan egocéntricos? Si hay vida aquí, en un universo vastísimo, lo lógico es que haya vida en otros lugares. En este sentido, esta perspectiva que tú me explicas, entre filosófica o de ciencia ficción, es que hay otras inteligencias. Y estas otras inteligencias es perfectamente posible que digan «qué rollo los humanos, qué gente más limitada, más egoísta». Y resulta que somos los memos del universo.

¿Por qué crees que la gente debería venir a la exposición?

Porque la inteligencia artificial ha venido para quedarse y condicionar nuestras vidas. Es que no hay otra opción. Es nuestra responsabilidad conocer el mundo en el que vivimos. Y es más: es muy peligroso confundir una actitud crítica hacia la inteligencia artificial, que es muy importante tener, con una actitud de desinterés o distancia. ¿Crees que es peligroso, crees que es problemático? Entonces debes conocerlo. Debes saber cómo funcionan las tecnologías que tienen un papel relevante en la configuración del mundo contemporáneo. En este sentido, las posiciones tecnofóbicas no pueden ser posiciones de desconocimiento de la tecnología, deben ser posiciones de conocimiento crítico.

 


 

Exposición «IA: Intel·ligència artificial»

Lugar: CCCB (Centre de Cultura Contemporània de Barcelona)
Fecha: Hasta el 17 marzo 2024
Horario: De martes a domingo y festivos: 11.00 – 20.00. Lunes no festivos: Cerrado
Precios: A partir de 4€

Últimas noticias

Abiertas las preinscripciones al doctorado 2024/2025

Las dos ramas que propone el doctorado se basan en el “diseño y sociedad. Políticas, arte y educación” y “la comunicación y sus entornos. Corporaciones e instituciones; medios, redes y territorio.”

BAU Ediciones presenta «Pasos hacia una perspectiva ecológica de las artes y el diseño»

El libro nace con la voluntad de introducir una perspectiva particular desde la cual reflexionar, investigar y abordar las prácticas de arte y diseño.

BAU acoge a estudiantes de doctorado de toda Europa en la octava edición del PRS

Representantes de la comunidad investigadora de BAU acompañarán y darán retorno a las tesis que se presentarán del 25 al 29 de abril.