viernes. 19.04.2024
imágenes creadas por el autor usando Stable Diffusion, bajo licencia CreativeML OpenRAIL++ )
imágenes creadas por el autor usando Stable Diffusion, bajo licencia CreativeML OpenRAIL++ )

In vino veritas...

En pleno paréntesis de la Semana Santa, y una vez satisfechas las necesidades materiales del cuerpo vía un esmorzar de forquilla, hicimos caso a los viejos atenienses y al grito (latino) de primum vivere deinde philosophare nos dio por filosofar sobre lo divino y lo humano. Y ya poniéndonos el sombrero e iniciando la despedida, nuestro amigo Jaime Sacasa dijo “deberíamos reflexionar sobre la Inteligencia Artificial.

La IA (Inteligencia Artificial) ha entrado en la sociedad como el vino en un buen almuerzo, y como él, nos ha llevado a una especie de embriaguez que, a tenor de los ¿miles? de artículos disponibles en prensa, blocs y redes sociales a favor, en contra, explicándola o justificándola, tal parece que su repentina entrada nos provoque un suerte delirio, un embeleso, un encantamiento plagado a partes iguales de admirado arrebato y de profundo pánico. Y decimos que ha entrado, cuando lo prudente es decir que la han hecho entrar y nos interesa saber la posible razón o razones de este espectacular -de espectáculo- aterrizaje. El porqué y el para qué, que es lo mismo, pero no es igual

Muy cierto es, como dice nuestro querido Sacasa: debemos reflexionar sobre la -mal llamada- IA, porque el peligro, tal y como a lo largo del texto argumentaremos y al final expondremos, es mucho más sutil e insidioso, mucho más temible que los fuegos artificiales con que nos quieren deslumbrar sus promotores.

La Inteligencia Artificial ha entrado en la sociedad como el vino en un buen almuerzo, y como él, nos ha llevado a una especie de embriaguez

Metadefinición

Si melius quid habes, accerse, uel imperium fer [Si tienes algo mejor, exponlo; si no, sométete a la autoridad]” (HoracioCartas, I, 5, 6)

Sometámonos a la autoridad, así pues. Si solicitamos a un sistema IAPerplexity de Google, que defina qué es la IA, ésta es su contestación:

La inteligencia artificial es el conjunto de sistemas o combinación de algoritmos que tienen como propósito crear máquinas que imiten la inteligencia humana para realizar tareas y puedan mejorar conforme la información que recopilan.

Primer sesgo, y también una petición de principio escondida: “imiten la inteligencia humana”. Sesgo que se profundiza con la siguiente afirmación

“[entendiendo la IAcomo la capacidad de las máquinas para realizar tareas que requieren inteligencia humana, como el aprendizaje, la percepción, el razonamiento y la toma de decisiones.

¿Cuál es el sesgo de la definición? Hacernos creer que los humanos pensamos como los procedimientos informáticos basados en lo que llaman “redes neuronales”. Y llamar redes neuronales al conjunto de programas y máquinas utilizados para analizar datos y sacar patrones es, una vez más, un intento de hacernos creer que el cerebro humano, sus verdaderas redes neuronales, recogen, transfieren e interpretan la realidad como lo hacen las máquinas.

ChatGPT (Microsoft/OpenAI) es aún más sagaz en el arte de intentar colarnos el sesgo, pues tras aceptar que los IA no tienen capacidades humanas, seguidamente se autoidentifica como humano, como si fuera algo o alguien humano quien me contesta:

Sin embargo, la IA actual no tiene la capacidad de pensar y razonar como lo hace un ser humano, ni tampoco tiene la comprensión profunda del mundo que tenemos los humanos.

La metadefinición de la IA por parte de la IA quiere -es decir, sus creadores quieren- que aceptemos que los sistemas IA recogen, transfieren e interpretan la realidad como hacen las personas. Y si lo logran, y parece que estén logrando que pensemos así, y recordando al sociólogo W.I. Thomas (“Si las personas definen las situaciones como reales, éstas son reales en sus consecuencias”), el resultado de aceptar esa creencia no será inocuo.

¿Cuál es el sesgo de la definición? Hacernos creer que los humanos pensamos como los procedimientos informáticos basados en lo que llaman “redes neuronales”

Ni es inteligente, ni es artificial

“[...] incluir protocolos de seguridad rigurosamente vigilados [es] un objetivo loable, pero hay algo aún mejor que conviene hacer en estos seis meses: retirar del debate público la manida etiqueta de “inteligencia artificial”. [...] La IA siempre ha sido un proyecto de los militares, la industria y las universidades de élite y sigue siéndolo, aunque ahora se haya democratizado su acceso. [...] En realidad, lo que hoy llamamos “inteligencia artificial” no es ni artificial ni inteligente” (Evgeny Morozov, El País, 23 de abril de 2023, la negrita es nuestra)

No es casualidad que empresas como SAS e IBM (usadas repetidamente como fuentes por los sistemas IA cuando les pedimos que hablen de IA) afirmen, gracias a los nombres que usan (inteligencia artificial, redes neuronales), que todo lo que hacen los humanos puede ser decodificado y sustituido por máquinas y programas. 

El nombre no hace a la cosa, decía Aristóteles, pero si nos equivocamos al nombrarla, nunca saldremos de la confusión. Pero ahora ¿quién conseguirá dar a lo que sea que sea esto otro nombre con un gancho igual? Pero si no damos con un nuevo nombre, si las personas definen las situaciones como reales...

¿Por qué no es inteligente? Primero deberíamos acordar qué es la inteligencia (difícil tarea) y luego entender cómo opera un sistema GR (aunque sea batalla perdida, en el presente artículo llamaremos a estos sistemas tratándolos como lo que son: Generador de RespuestasGR, o AGAnswer Generator)

Como es un sistema GR, y no le negamos capacidad en lo suyo, vamos a preguntarle qué es eso que llamamos inteligencia humana y cómo puede aprender conceptos radicalmente nuevos. He aquí su respuesta, con la que estamos básicamente de acuerdo:

La inteligencia humana es una capacidad mental muy general que permite razonar, planificar, resolver problemas, pensar de modo abstracto, comprender ideas complejas, entre otras cosas.[...] la inteligencia humana puede aprender algo que nadie sabe ni ha experimentado antes a través de la creatividad y la imaginación. La creatividad nos permite generar nuevas ideas y soluciones, mientras que la imaginación nos permite visualizar posibilidades y escenarios futuros.

No es casualidad que empresas como SAS e IBM afirmen que todo lo que hacen los humanos puede ser decodificado y sustituido por máquinas y programas

Y ¿Cómo aprende a contestar -o a dibujar- un sistema GR?

Con frecuencia la llamada prueba de Turing, ideada por éste en 1950, se acepta como una prueba para saber si una computadora podría realmente "pensar". Pero Turing nunca dijo tal cosa, sino que con ello nos advertía -gracias a esa prueba y si tal cosa se daba- de que un día las máquinas (mejor, sus dueños) podrían convencer a los humanos de ser entes pensantes, con independencia de que lo fueran o no. Una computadora que superase la prueba de Turingpodría secuestrar el lenguaje para engañar a los humanos haciéndoles creer que, más que ante un mero generador de respuestas, se encontraban ante un nuevo tipo de inteligencia.

Hoy los sistemas GR pueden pasar fácilmente la prueba de Turing: nos pueden engañar.

Repetimos: ni es artificial

«“Despite the foundational role played by these data enrichment professionals, a growing body of research reveals the precarious working conditions these workers face,” says the Partnership on AI, a coalition of AI organizations to which OpenAI belongs. “This may be the result of efforts to hide AI’s dependence on this large labor force when celebrating the efficiency gains of technology. Out of sight is also out of mind.” (OpenAI does not disclose the names of the outsourcers it partners with, and it is not clear whether OpenAI worked with other data labeling firms in addition to Sama on this project.)» [1] (Billy PerrigoExclusiva: OpenAI usó trabajadores kenianos por menos de $2 por hora para hacer que ChatGPT fuera menos tóxico, Time, 8 de enero de 2023, la negrita es nuestra)

Éste es el quid: “Éste puede ser el resultado de los esfuerzos por ocultar la dependencia que los sistemas IA tienen de esta gran fuerza laboral al celebrar las ganancias de eficiencia de la tecnología. Fuera de la vista también está fuera de la mente”. Corazón que no ve, tortazo que se lleva...

Volvamos a la auctoritas de Perplexity, y veamos en la conversación citada qué dice sobre su capacidad artificial de aprender:

“[Nuestra preguntaLa realidad, que debes aceptar, es que la IA SOLO puede detectar errores a través del aprendizaje automático y el reconocimiento de patrones, todo ello generado por terceros. La IA no puede generar nuevos datos, y por ello no puede generar nuevos patrones, por lo que SOLO puede aprender con ayuda de terceros, nunca por sí misma.

[PerplexityEs cierto que la inteligencia artificial necesita datos y correcciones de terceros para aprender y mejorar su capacidad de aprendizaje y toma de decisiones. La IA puede detectar errores a través del aprendizaje automático y el reconocimiento de patrones, pero estos datos y correcciones deben ser proporcionados por terceros. La IA no puede generar nuevos datos o correcciones por sí misma, sino que depende de la información que se le proporcione. En resumen, la IA necesita la intervención de terceros para aprender y mejorar, ya que no puede generar nuevos datos o correcciones por sí misma.” (la negrita es nuestra)

Al menos tienen a favor los sistemas GR que no saben mentir -tampoco saben decir la verdad: ambas cosas sólo son potestad de las personas-, aunque en ellos se cumpla a rajatabla una de las primeras máximas informáticas que, a fuerza de sustos y contrariedades, aprendí en mi época de programador: garbage in, ¡garbage out!

Haciendo caso a Horacio, finalicemos este capítulo con más auctoritas de ChatGPT:

“[L]a moderación de la calidad de las respuestas generadas por ChatGPT se realiza a posteriori, es decir, después de que el modelo ha generado las respuestas a las preguntas de los usuarios. Los trabajadores revisan las respuestas generadas por el modelo para asegurarse de que sean precisas, relevantes y apropiadas para el contexto de la pregunta.” 

Ni es inteligente y ni mucho menos es artificial. Usa y necesita a miles de humanos para alimentar y corregir, es decir, para ser fuente del qué y para mejorar y afinar el cómo

Pero no sólo es corregir, también es ¿de dónde sale la información? ¿de otro sistema GR? Más bien no. Tiene toda la razón Morozov cuando nos recuerda que: «[Todos] los sistemas actuales, como el ChatGPT que tanto gusta a todos, no se basan en reglas abstractas, sino en el trabajo de seres humanos reales: artistas, músicos, programadores y escritores, de cuya obra creativa y profesional se apropian esos sistemas con la excusa de querer salvar la civilización. En todo caso, es una “inteligencia no artificial”.» (la negrita es nuestra).

Así, pues, ni es inteligente y ni mucho menos es artificial. Usa y necesita a miles de humanos para alimentar y corregir, es decir, para ser fuente del qué y para mejorar y afinar el cómo procesa y genera respuestas. O sea, que estamos ante un sistema generador de respuestas, automático ma non troppo...

¿Algún beneficio no buscado?

“...de cuya obra creativa y profesional se apropian esos sistemas” (Morozov)

No cabe duda de que, si no inteligentes, los sistemas GR son listos, rápidos e incluso eficaces (lo de eficientes, ya no está tan claro) en lo suyo y los algoritmos de sus programadores les permiten generar respuestas útiles. Tan útiles y eficaces que, entre otros, los escritores de discursos políticos -así como los propios políticos [2]- y los diseñadores gráficos de diarios o revistas tendrán que afilar sus capacidades para no verse odiosamente comparados con los engendros que producen los sistemas GR, tanto en textos como en imágenes.

Si algo bueno puede traer, por ejemplo y sin querer ser exhaustivos, es suscitar en las gerencias de los medios de comunicación la necesidad de valorar mejor a los buenos periodistas y a los buenos reporteros gráficos, por el plus que sus trabajos aportan sobre los textos planos y las imágenes refritas de los GR.

Otro beneficio viene irónicamente de la imagen negativa con que los propios GR se describen si les preguntas por sus peligros: decidir sin intervención humana, falta de transparencia, decisiones sesgadas que conllevan injusticia y discriminación, decisiones defectuosas inherentes al muestreo limitado de datos, hackeo de los algoritmos de los sistemas GR, dificultad de entender el proceso decisional último, centralización del control y vigilancia de preguntas y respuestas en manos privadas, desresponsabilización respecto los efectos de las respuestas.

Si algo bueno puede traer, es suscitar en las gerencias de los medios de comunicación la necesidad de valorar mejor a los buenos periodistas

Y aunque los GR no nos lo digan -porque no lo dicen-, ser consciente de todo ello tiene un beneficio: valorar en su justiprecio el factor humano, la necesidad de que sean las personas las que tomen las decisiones y sean -o se les faculte y capacite para ser- responsables de sus decisiones.

Y aún otro: si los GR han venido para quedarse, aprender a usarlos es la única vía para no ser usados por ellos.

El máximo peligro

El máximo peligro de no retirar términos como “inteligencia artificial” es que impida ver el trabajo creativo de la inteligencia y, al mismo tiempo, haga que el mundo sea más predecible y estúpido. Este término, con su carácter apolítico y progresivo, hace más difícil descubrir los motivos de Silicon Valley y sus inversores; y, a la hora de la verdad, sus motivos no siempre coinciden con los de la gente.” (Evgeny Morozov, El País, 23 de abril de 2023)

No creemos que sean teorías conspiranóicas sostener que la tremenda explosión que en tampoco tiempo han tenido los sistemas GR (también conocidos como IA por parte de sus promotores) tenga un sustrato de lucha económica por el mercado: el que golpea primero, golpea dos veces.

Poner al alcance de todos -democráticamente- la parte más espectacular (en el sentido peyorativo de espectáculo) de las funciones de los GR es el resultado de una pura y dura guerra comercial entre Google y Microsoft ¡Cómo no! Y los mil artículos han sido miel sobre hojuelas para sus respectivos departamentos comerciales. Y si no era esto lo que buscaban ¡da igual! pues en la sociedad del espectáculo vale el aforismo que dice “Que hablen de ti, aunque sea mal”. Bien saben los marquetineros del impacto ‘positivo’ de las noticias negativas: estas generan el doble de atención que las positivas.

Y, como ahora expondremos, y sin menospreciar la importancia del negocio, lo cierto es que sólo ver la parte crematística puede servir para enmascarar otros graves peligros.

No creemos que sean teorías conspiranóicas sostener que la tremenda explosión que han tenido los sistemas GR (IA) tenga un sustrato de lucha económica por el mercado

El verdadero peligro

«“Ahora no somos un país libre. No tenemos una prensa libre. No tenemos nada libre. En 2016 declaré que soy vuestra voz. Hoy añado que soy vuestro guerrero, soy vuestra justicia. Y para aquellos que han sufrido agravios y traiciones, yo soy vuestra retribución. Yo soy vuestra retribución”» (Trump, citado por Juan Gabriel Vásquez, El País, 13/04/2023)

Esta afirmación, digna de los servicios del viejo agitprop nazi de los años 30, no tendría posibilidad alguna de calar significativamente en la ciudadanía, es decir, con capacidad de operar social y políticamente, si antes no hubieran llegado a la sociedad textos e imágenes, creados y difundidos gracias al aprendizaje automático y a la extracción de patrones, con los términos exactos y necesarios para producir un enorme conjunto de crédulos.

La empresa Cambridge Analytica, famosa por acceder a millones de datos de usuarios de Facebook, analizarlos con métodos de aprendizaje automático y extracción de patrones y vender sus resultados con objetivos electorales en Estados Unidos, abrió la veda a centenares de firmas con el mismo propósito.

Una empresa muy cercana geográficamente a nosotros, Eliminalia (que al parecer está migrando a Idata Protection), y otras en el otro extremo del Mediterráneo (en Israel, Amenity Analytics, analiza textos, informes, redes sociales para empresas de Fortune 100Optimove, analiza los datos de usuarios para preparar comunicaciones personalizadas y emocionalmente eficaces; Beyond Verbal, en las app que la llevan instalada, analiza las emociones y cómo se siente el usuario que las utiliza...) utilizan la tecnología del aprendizaje automático y extracción de patrones, la misma que está detrás de las aplicaciones Perplexity o ChatGPT, para temas tan intrusivos y diversos como blanquear perfiles, preparar informes para empresas o analizar las emociones.

En Corea del Sur, las entrevistas en vídeo con reconocimiento facial analizadas con sistemas de aprendizaje automática son ya pan común en la mayoría de los procesos de selección de las empresas. En estos, además de las palabras elegidas para la respuesta, el software analiza las expresiones faciales para detectar sentimientos. A lo largo de la entrevista, la IA hace preguntas, donde no importa tanto dar la respuesta correcta, ya que no suelen ser problemas o dilemas, como las sensaciones y los sentimientos que te provocan la pregunta.

La escritora Arundhati Roy (El desmantelamiento de la democracia india, El País, 09/04/2023) advierte de un más que posible futuro, nada relacionado, a pesar de lo expuesto en muchos otros sesudos artículos, con una futura guerra total por la supremacía entre la inteligencia artificial y la humana, ni de un matrixiana batalla por la energía entre máquinas y humanos:

Se calcula que, en 2026, la India tendrá 1.000 millones de usuarios de teléfonos móviles. Imagínense ese volumen de datos en una aplicación DIIA [3] hecha a medida para el país. Imagínense todos esos datos en manos de empresas privadas. O, desde otra perspectiva, imagínenselos en manos de un Estado fascista y de sus partidarios adoctrinados y armados.

Mucho más sutil, mucho más intrusivo, mucho mas peligroso, mucho más insidioso que el mero espectáculo de unos textos de Perplexity o unas imágenes de Stable Diffusion.

En nuestros años universitarios jugábamos al mentiroso, una especie de engañabobos trilero con cubilete y dados de póker en el que, para ganar, debías pasar al siguiente una figura mayor que la recibida. Podías decir que, amagado en el cubilete, pasabas una doble pareja de ases y reyes, que superaba la doble de jotas y rojas recibida. El siguiente, tras hacer cálculo de probabilidades, con una sonrisa de suficiencia clamaba “¡No me lo creo!” y levantaba violentamente el cubilete para ver que ¡horror! había un trio de negras, tal vez menos espectacular que reyes y ases, pero más efectivo...

No es ChatGPT, sino IBM o SAS; no es Stable Diffusion, sino Cambridge Analytica o Optimove; no es Perplexity, sino las empresas de Corea del Sur o el Estado Indio.

Es ese insidioso trio de negras, oculto en el cubilete, el que nos hará perder la cabeza si nos engolfamos en lo espectacular (de espectáculo) de los generadores de respuestas.

La IA hace preguntas, donde no importa tanto dar la respuesta correcta, como las sensaciones y los sentimientos que te provocan la pregunta

...in aqua sanitas

In vino veritas, in aqua sanitas, decía Plinio el Viejo, y el agua que nos deparará la salud cívica, que el trio de negras se obstina en destruir, no es otra que instruir y educar a todos, pero especialmente a los niños y jóvenes.

Aunque, claro está, el agua ni es sabrosa ni alegra la comida como el vino. Pero es necesaria, es fundamental para la vida, como la enseñanza lo es para la ciudadanía.

Pero los GR han venido para quedarse. No se le pueden poner puertas al campo [4]. Eso, sí: todo lo que no sea instruir y educar, es decir, enseñar a manejarse con lo digital no podrá ser corregido después mediante leyes, moratorias o simples advertencias. 

Cuando todo es texto, entonces el texto ya no significa nada. Cuando todo es imagen, entonces la imagen ya no significa nada. Hoy, con los sistemas GR, todo parecerá que es texto, todo parecerá que es imagen.

La realidad, que la quieren en retroceso ante la nada de la historia interminable de la virtualización digital, sólo gracias a los hechos tozudos se resiste a desaparecer. La realidad exige el esfuerzo de ser conocida como lo que es, siempre de difícil aprensión: lo que está fuera de los textos, cuando estos aparentan ser todo; lo que está fuera de las imágenes, cuando estas aparentan ser todo.

La realidad, la que importa, está fuera de los textos e imágenes de los GR. A su vez, los sistemas GR nos pondrán en nuestro sitio, pues quien tenga técnica, pero nada que decir, lo que produzca será, como mucho, del mismo nivel que un revoltillo recalentado: esos sistemas aflorarán la inanidad de la técnica sin humanidad, del cómo sin el qué.

Tiene mucha razón nuestro amigo Jaime Sacasa, “deberíamos reflexionar sobre la Inteligencia Artificial”. Deberíamos estar ya reflexionando sobre la responsabilidad que tiene en la insidia que hace años que nos corroe, en cómo operan ese trio de negras y cómo carcomen a la sociedad, y no quedarnos en el mero espectáculo de fuegos artificiales con el que nos quieren encantar.

Y, para más INRI, a la vuelta de la esquina están los ordenadores cuánticos, que calcularán en unos segundos lo que los actuales en miles de años: el Panóptico de 1984

Post dataMorozov nos invita a pensar en un dilema ético, si los sistemas GR se apropian -sin pagar derechos [5]- de la “obra creativa y profesional” de terceros ¿Hacemos bien en usarlos? Problema ético que, como tantos otros, se escapa de nuestras manos. Como el coltán congoleño, sin ir más lejos, que se utiliza en la fabricación de teléfonos móviles, tabletas y ordenadores portátiles ¿Hacemos bien en usarlos?


[1] LICENSE: The model is licensed with a CreativeML OpenRAIL++ license. The authors claim no rights on the outputs you generate, you are free to use them and are accountable for their use which must not go against the provisions set in this license. The license forbids you from sharing any content that violates any laws, produce any harm to a person, disseminate any personal information that would be meant for harm, spread misinformation and target vulnerable groups.


[1] «“A pesar del papel fundamental que desempeñan estos profesionales de enriquecimiento de datos, un creciente cuerpo de investigación revela las condiciones laborales precarias que enfrentan estos trabajadores”, dice Partnership on AI, una coalición de organizaciones de IA a la que pertenece OpenAI. “Este puede ser el resultado de los esfuerzos por ocultar la dependencia de AI de esta gran fuerza laboral al celebrar las ganancias de eficiencia de la tecnología. Fuera de la vista también está fuera de la mente”. (OpenAI no revela los nombres de los subcontratistas con los que se asocia y no está claro si OpenAI trabajó con otras empresas de etiquetado de datos además de Sama en este proyecto).» (Google Translator, la negrita es nuestra)
[2] No sólo es un mero divertimento, leer estos pequeños discursos (https://tinyurl.com/YolandaDiazIA y https://tinyurl.com/FeijooIA) abstrayéndonos de que fue un GR quien los creó, nos lleva a ver cuan vacuos suelen ser los discursos de los políticos, sean de su factura o hayan sido creados por sus speechwriters.
[3] “El Estado Electrónico, o lo que se ha dado en llamar el Estado en un Teléfono Inteligente. Un Estado Avatar, por así decirlo. Con la financiación de la Agencia de Estados Unidos para el Desarrollo Internacional (USAID, por sus siglas en inglés) y el apoyo de las grandes tecnológicas ―Amazon, Apple, Google, Oracle―, el Estado Avatar está casi a la vuelta de la esquina. En 2019, el Gobierno de Ucrania puso en marcha DIIA, una aplicación de identificación digital para teléfonos móviles.” Arundhati Roy, artículo citado.
[4] Platón temía a los libros porque pensaba que debilitarían el intelecto y la memoria, y ahora mataríamos porque las novísimas generaciones leyeran, aunque sean libros electrónicos. ¿Qué vendrá, cuando ya no nos importe, que harán buenos a los GR? Porque, no lo dudemos, en cultura siempre el nuevo enemigo de hoy tiene muchos puntos para convertirse mañana en nuestro añorado amigo.
[5] Los contratos no se establecen con los artistas, músicos, escritores, etc, sino sólo y directamente con los proveedores de contenido: “En general, la utilización de obras escritas digitalizadas de terceros o imágenes digitalizadas de cuadros por parte de sistemas de inteligencia artificial como ChatGPT para generar respuestas no implica el pago de derechos de autor [...] Algunas empresas y organizaciones que desarrollan sistemas de inteligencia artificial tienen acuerdos con proveedores de contenido para utilizar su contenido de manera legal y ética. Por ejemplo, OpenAI ha establecido acuerdos de colaboración con proveedores de contenido para el desarrollo de sus modelos de lenguaje natural, incluyendo GPT-3.” (Respuesta de ChatGPTa “¿Pagan los sistemas IA derechos de autor al utilizar obras escritas digitalizadas de terceros, para generar sus respuestas escritas, o imágenes digitalizadas de cuadros, para generar sus respuestas en forma de imagen digital?”)

 

IA ¿I? ¿A?