miércoles, 8 de febrero de 2023

Inteligencias artificiales

Llevo tiempo pensando en El gran gramatizador automático, un relato de ciencia ficción escrito por Roald Dahl. En esta historia, un ingeniero que se las da de escritor llega a la conclusión de que, como la gramática inglesa tiene unas reglas que casi son matemáticas, es posible construir una «calculadora» que genere novelas. Al final acaba con un armatoste gigantesco en cuyo panel de control solo hay que seleccionar temática, personajes, estilo, grado de pasión y otra quincena de variables y ¡presto! Tenemos un cuento o una novela listos para publicar.

Al principio, el ingeniero y su jefe firman las historias con sus propios nombres o con otros que se inventan, pero pronto descubren que el mercado no puede absorber tanta ficción. Hay muchos escritores consolidados que ya tienen su parte del pastel y que no la van a soltar. Así que ¿qué hacen? Pues comprarlos. Firman con ellos un contrato millonario para que no vuelvan a escribir una sola línea y que, sin embargo, presten sus nombres para las novelas de su estilo que produzca el gran gramatizador. Conforme más escritores van firmando, se incrementa la presión sobre los que quedan.

En las últimas líneas se descubre que el relato lo está escribiendo uno de estos autores que aún no han firmado. Los dos últimos párrafos son desgarradores, en la línea de Dahl:

 

En este preciso momento, mientras oigo los alaridos de hambre de mis nueve hijos en la otra habitación, noto que mi mano se acerca más y más a ese contrato dorado que está al otro lado de la mesa.

¡Oh, Señor, danos fuerzas para dejar que nuestros hijos mueran de hambre!

 

Roald Dahl anticipó aquí las mal llamadas inteligencias artificiales «artísticas» (las que traducen, las que pintan y, dentro de poco, las que escriben). O, más bien, y esto no es baladí, anticipó lo que ocurre si ponemos a funcionar estas herramientas bajo el capitalismo: la expansión constante, a toda costa y caiga quien caiga, acompañada de la precarización de los creadores y de la obligación de plegarse a las nuevas corrientes. Consecuencias muy reales y que quedan ocultas por las lucecitas brillantes que encienden los tecnobros.

Las IAs no son más que una herramienta, y depende del usuario emplearlas bien o emplearlas mal. ¿Un ejemplo de uso correcto? Alimentar al programa con tu propio arte y sacar bocetos, composiciones de figuras, ideas en las que luego trabajar, etc. O emplearlas para solucionar una parte tediosa del dibujo, como un fondo: sé que hay autores que las utilizan así, y me parece excelente porque, como digo, son una herramienta más.

Pero, qué sorpresa, no es esa la forma que ha escogido el capitalismo para presentárnoslas. Las IAs disponibles en Internet, sea de forma gratuita o previo pago, son nocivas por, al menos, tres razones:

  • Roban arte. Es decir, se alimentan de millones de imágenes subidas a Internet, cuyos autores no han dado consentimiento para este empleo. Las imágenes que salen son remezclas de esos píxeles previamente asimilados.
  • Hay miles de trabajadores precarios corrigiéndolas y afinándolas. Esto no sé si pasa con las IA artísticas, pero con los asistentes de voz de los móviles y otros programas similares sí sucede.
  • Sustituyen a creadores humanos. En lugar de una ilustración contratada y pagada, ahora habrá algo que el jefecillo de turno ha generado en un rato libre. Hasta las imágenes de stock son más dignas, puesto que sus creadores las han subido voluntariamente a esas webs a cambio de una pequeña remuneración.

 

En el resto del artículo, por tanto, no voy a hablar de las IA, sino del uso que pretenden que les demos, y que ya hay quien está dándoles: generación de imágenes (y, muy pronto, de textos) listas para publicación. Alguien escribe una descripción o dibuja un monigote y los usa para pedirle a la máquina algo que después irá publicado tal y como sale en la pantalla o, como mucho, con correcciones mínimas. Y el hecho es que este uso plantea graves problemas, tanto jurídicos como artísticos.

La pregunta es simple: ¿quién es autor de una imagen así producida? La IA por supuesto que no. Que parece obvio, pero hay quien defiende lo contrario. Y, si lo miras de manera superficial, puede que no veas tanta diferencia entre la creación artística humana y los productos de una IA: ambos cogen referencias y, a partir de ahí, sacan una cosa nueva.

Por supuesto, basta con haber intentado crear alguna vez algo original (arte, literatura, incluso un juego de mesa) para darte cuenta de que esto no es así en absoluto. El arte es una creación de la voluntad humana que, es cierto, se basa en las experiencias y conocimientos del autor. Todo artista tiene influencias. Pero todo artista realiza también un proceso crítico por el cual escoge unas influencias, descarta otras, les da la vuelta a unas terceras y desarrolla un estilo propio que, a su vez, será inspiración de otros. Esto, por supuesto, la IA no las puede hacer: solo puede remezclar píxeles de acuerdo a instrucciones previas. No hay ahí nada que se parezca a una autoría.

Muy bien, entonces ¿es autor la persona que emplea la IA? Parece la solución más sensata. Aquí, la IA funcionaría como una simple herramienta, como el Photoshop o cualquier otro programa. Pero es que tampoco. Cuando tú usas una herramienta, eres tú quien toma todas y cada una de las pequeñas decisiones que componen una obra artística; la herramienta se limita a ser un medio, mejor o peor, por el que esas decisiones quedan plasmadas en un resultado. Aquí no hay diferencia entre herramientas digitales y analógicas: yo estoy empleado un procesador de textos igual que podría estar usando un bolígrafo, pero soy yo quien decide escribir las frases de una manera y no de otra. Es precisamente eso lo que permite decir que la obra es mía, que la he creado yo.

Con una IA las cosas no son así. Le das una descripción y genera una imagen terminada, sin que puedas controlar ninguno de los elementos de la misma. Emplear un dibujo en lugar de una frase no resuelve el problema, puesto que ninguno de tus trazos acabará en el producto final. Es decir, entre el impulso creador y la obra terminada no hay nada que se parezca a decisiones humanas conscientes, sino algoritmos informáticos que son iguales para todos los usuarios. Es más un trabajo de imprenta que de creación. ¿Cómo puede defenderse, entonces, que alguien es autor de los productos que salen de una IA?

Jurídicamente el asunto es complicado de analizar, porque la ley española no da una respuesta a un problema que lleva menos de un año planteado en serio. El artículo 5.1 de la LPI considera autor «a la persona natural que crea alguna obra», mientras que el artículo 10 define obra como «creación original literaria, artística o científica». ¿Se puede considerar que los productos de una IA son creaciones originales y que la persona que le ha pedido un cierto resultado es el creador de los mismos? La verdad, yo lo veo muy dudoso. Me parece similar al caso en que alguien entrenara a un mono para que disparara una cámara: sí, el mono es tuyo y tú le has dado la instrucción, pero la foto no la has sacado tú.

Y claro, el hecho de que imágenes puestas en circulación no tengan autoría atribuible puede elevar los problemas hasta el infinito. Supongamos que una empresa utiliza imágenes de IA para cualquier fin: una portada, una ilustración interior, los fondos de un videojuego, etc. ¿Qué le impide a un tercero coger esa imagen y emplearla también? La propiedad intelectual se vincula a la autoría. Si no hay autor, no hay derechos morales ni económicos que proteger. Nadie podría exigirle al tercero que dejara de usar esa imagen porque nadie es propietario de la misma.

Hasta aquí, por cierto, creo que no hay tecnofobia ni ludismo en mi artículo, solo crítica a la expansión constante que exige el capitalismo. Lo del ludismo, por cierto, es especialmente gracioso. Los luditas fueron de los primeros grupos de obreros organizados que hubo en el siglo XIX, pero, como atacaban las máquinas, muchas veces los libros de Historia del instituto los presentan como simples y desubicados campesinos que focalizaban en estas todo su odio. En realidad, los luditas eran perfectamente conscientes de que la degradación de su modo de vida se debía al patrono, no a las máquinas. Por ello, aparte de destruir las máquinas de las fábricas (porque no iban a por otras), también exigían mejoras salariales, mandaban cartas amenazadoras e incluso asesinaban a empresarios.

Ahora que lo pienso, así enfocado igual sí hay un poco de ludismo en mi artículo. Pero bueno, prosigamos.

¿Cuál es el futuro de las IAs en este agradable tardocapitalismo que nos ha tocado vivir? Obviamente no van a desaparecer, pero, siendo sinceros, tampoco creo que los artistas vayamos a acabar pidiendo fuerzas para dejar que nuestros hijos se mueran de hambre. Sobre todo porque, al menos de momento, los productos que salen de las IA son una tremenda basura que engaña al primer vistazo y poco más. Se perfeccionarán, sí, pero llegarán a un techo más pronto que tarde.

Al final, el arte es una creación humana basada en la reinterpretación consciente de influencias y experiencias. Eso es lo que buscamos cuando leemos, miramos, escuchamos o jugamos. Las IA no nos lo pueden dar, y no creo que puedan en un futuro cercano. Y esto no es una paja mental sobre la profunda conexión espiritual entre el artista y su público, sino la constatación de que las imágenes generadas por IA son mierdones de los que la gente se ríe a poco que los observa con un poco de detalle.

Supongo que los productos de IA, cuando se perfeccionen, encontrarán un nicho, sustituyendo, por ejemplo, a las imágenes de stock. Es decir, cosas que están de adorno y que nadie mira dos veces, y poco más. Los artistas seguirán creando (muchos de ellos integrando estas herramientas en su proceso artístico, como mencionábamos más arriba) y el público seguirá pidiendo obras originales. Aunque solo sea porque, como las IA no pueden innovar, una producción gráfica sometida a esta clase de mecanismos se estancaría enseguida, lo cual cansa a cualquiera.

El principal gol que nos tenía que meter el capitalismo en este aspecto ya nos lo ha metido. Consiste, precisamente, en el nombre. Los frikis leemos «inteligencia artificial» y, aunque sepamos que no es así, ya pensamos en un Multivac pintor. Eso condiciona todo el análisis, aunque sea de manera no consciente. Porque no es lo mismo decir «inteligencia artificial» que «programa que produce imágenes con sentido (para un cierto valor de sentido) a partir de lo que almacena en una enorme base de datos». Contra esto, y no contra otra cosa, es contra lo que luchamos.

Así que dejemos de atribuirle inteligencia al aparato que pinta manos de seis dedos y, en tanto que pensamos un nuevo nombre, vamos a ver si dejamos de usarlo para robar arte ajeno y sustituir el trabajo de profesionales. Es decir: usemos la herramienta sin dañar a nadie.

 

 

 

     ¿Te ha gustado esta entrada? ¿Quieres ayudar a que este blog siga adelante? Puedes convertirte en mi mecenas en la página de Patreon de Así Habló Cicerón. A cambio podrás leer las entradas antes de que se publiquen, recibirás PDFs con recopilaciones de las mismas y otras recompensas. Si no puedes o no quieres hacer un pago mensual pero aun así sigues queriendo apoyar este proyecto, en esta misma página a la derecha tienes un botón de PayPal para que dones lo que te apetezca. ¡Muchas gracias!


 

6 comentarios:

  1. No estás entendiendo como funcionan, cosa normal porque es técnicamente bastante complejo. La idea de que estas IAs guardan en su interior las imágenes utilizadas en su entrenamiento y simplemente las "remezclan" es fácil de entender pero completamente falsa.

    Baste un ejemplo para demostrarlo. Stable difussion, que no es una de las mejores pero sí es la que cualquiera se puede descargar y ejecutar localmente en su PC, ocupaba 2 GB cuando fue presentada. Y para entrenarla se han utilizado más de dos mil millones de imágenes. Evidentemente es imposible guardar dos mil millones de imágenes en 2 GB. Sale a un byte por imagen. No cabrían ni aunque fueran cien mil veces menos.

    Simplificando lo que hace la IA durante el proceso de entrenamiento es aprender las características esenciales de cada concepto. Como que una cara tiene dos ojos y una nariz debajo. Y a su vez el ojo se compone de varios óvalos de x colores... Y por otro lado "ordena" esos conceptos en un espacio de matemático de miles de dimensiones en función que lo que tienen en común y lo que les diferencia, de tal manera de que una cara masculina y una femenina están muy cerca pero una cara masculina y un coche están muy lejos. Ese conocimiento es lo que está almacenado en los 2 GB.

    Al generar una imagen, utiliza la información de como están ordenados los conceptos para situarse en un punto que esté "cercano" a todas las palabras introducidas. Y de entre todos los valores que puede tener cada pixel, se elige aleatoriamente uno que sea compatible con las características del concepto indicado. Realmente no es totalmente aleatorio, algunos pixeles son más probables que otros. Y tampoco se hace pixel a pixel, se hace con todos a la vez, pero demos por buena la simplificación para facilitar el entendimiento. Es decir, no compone una cara mezclando caras conocidas sino entendiendo realmente cuales son la forma y color de una cara y como se relacionan entre sí los conceptos implicados.

    No es radicalmente diferente a como aprenden los humanos, aunque sí mucho menos eficiente.

    Soy consciente de que entender este funcionamiento es muy difícil si no se es experto en la materia. Yo no soy experto en este campo pero sí informático aún así mi entendimiento es superficial. Pero al menos que quede claro que la IA ha visto las imágenes de entrenamiento y ha aprendido de ellas pero no las contiene ni las almacena, ni las utiliza en el momento de generar una nueva.

    En mi opinión cualquier demanda por la infracción de los derechos de autor de las imágenes de entrenamiento será rechazada en cuanto un perito explique al juez como funcionan realmente. De hecho he oído a gente del mundillo IA estadounidense deseando que un caso llegue a juicio cuanto antes para ganarlo y acabar con la polémica.

    ResponderEliminar
    Respuestas
    1. Muy interesante la explicación, y acepto la corrección en lo relativo a cómo funcionan las IA. Pero no considero que eso no sea radicalmente diferente a como aprendemos (ni a como creamos arte) los humanos, la verdad.

      Eliminar
  2. El debate sobre la inteligencia artificial siempre se repite: cada vez que los ordenadores aprenden una nueva capacidad esta deja de considerarse una demostración de inteligencia, ahora pasa con el arte, pero antes pasó con el ajedrez, que se consideraba que ganar al ajedrez era una muestra de capacidad intelectual, pero desde que las IA vencieron a los humanos ya no se considera una demostración de una verdadera inteligencia.

    ResponderEliminar
    Respuestas
    1. Si un humano me gana al ajedrez, eso demuestra inteligencia, astucia y práctica. Si un ordenador me gana al ajedrez, eso demuestra que tiene un buen algoritmo.

      Eliminar
  3. Será por lo que decías en algún artículo sobre Terry Pratchett, que había asumido que eras ateo. Una vez aceptas que no hay magia en nosotros (o alma, o cómo lo llame cada religión), sólo queda una conclusión posible: nuestra mente, nuestro raciocinio, nuestra creatividad, nuestro humor y nuestra ética, todo lo que pensamos, es algoritmo. Somos máquinas, diferentes a las que hemos fabricado pero máquinas al fin y al cabo, y no hay ninguna ley física que impida que se alcance (o supere) el mismo nivel de complejidad y potencia usando transistores en vez de neuronas. Es verdad que lo que se ha conseguido hasta ahora es más un truco de salón que una verdadera inteligencia, pero vista la evolución de los últimos años yo ya me estoy haciendo a la idea.

    ResponderEliminar