Tavis Coburn

    CAP 1: Prejuicios, marcos legales e iniciativa privada. ¿Quién regula la IA?

    Carlos Cuesta y Vladyslav Hostyuk

    15 de junio 2023

    Las herramientas generativas basadas en Inteligencia Artificial han avanzado mucho en los últimos años y han adquirido mucha notoriedad a partir de la segunda mitad del pasado 2022. Gracias a los desarrollos más recientes de las tecnologías de IA, sobre todo aquellas que operan con lenguaje o con imágenes, el acceso a estas herramientas cada vez se ha popularizado más a través de aplicaciones web como Midjourney, ChatGPT o Dall·E 2, estas últimas de OpenAI. Estas soluciones son recursos que permiten a cualquier persona usuaria generar imágenes y textos a partir de premisas y palabras clave; las llamadas prompts.

    Al mismo tiempo que se ha facilitado el acceso del usuario medio a este tipo de tecnologías, también ha crecido el interés por su aplicación a escala industrial. Esta, sin embargo, presenta una serie de retos como, por ejemplo, las grandes cantidades de datos necesarios para operar, o la infraestructura necesaria para procesarlos. Como comenta Ajay Agrawal en la publicación Harvard Business Review, una de las primeras aplicaciones de la Inteligencia Artificial en la automatización industrial se dio en el sector de los taxis.

    La integración de este tipo de tecnologías requiere un alto grado de reestructuración

    Esta fue la apuesta de empresas como Uber y Lyft, que con un sistema de coordinación entre conductores y clientes basado en IA multiplicaron la cantidad de chóferes hasta los 3,5 millones en los EE. UU. Aunque para conseguirlo tuvieron que adoptar toda una serie de medidas en materias de ciberseguridad, localización, tracking…; un cambio de sistema integral. Lo que puntualiza Agrawal es que la integración de este tipo de tecnologías requiere de un alto grado de reestructuración en las dinámicas de producción y trabajo de las empresas antes de que de verdad se puedan empezar a notar los beneficios.

    Aun así, a pesar del elevado esfuerzo estructural que supone la integración de las tecnologías basadas en IA a la actividad empresarial, la gran notoriedad adquirida por estas herramientas en los últimos meses ha llamado la atención de algunas de las grandes corporaciones tecnológicas, que encuentran una buena oportunidad para aprovechar la tendencia. Actualmente ya podemos encontrar un clima competitivo en las herramientas generativas de imágenes basadas en IA, en el que podemos encontrar herramientas desarrolladas cómo Dall·E 2, Midjourney o Stable Diffusion entre otras muchas.

    Google ha abierto las puertas a un escenario donde las mayores empresas tecnológicas pueden competir hasta terminar por concentrar la oferta de este tipo de soluciones informáticas.

    Bard es la herramienta anunciada por Google para generar texto mediante IA y competir con Chat-GPT

    La oferta simultánea en este tipo de soluciones informáticas se puede ver incrementada en el futuro más próximo con la entrada de las GAFAM: las mayores corporaciones tecnológicas. Es el caso de Google, que ya ha anunciado su propia herramienta generativa de texto mediante IA, Bard (desarrollada por su filial británica Deepmind), para hacer frente a ChatGPT de OpenAI, apoyado financieramente por Microsoft. Este anuncio abre la puerta a un escenario en el cual las empresas de mayor tamaño al sector tecnológico compitan para ofrecer servicios de IA a las personas usuarias hasta acabar concentrando la oferta de este tipo de soluciones informáticas.

    Por otro lado, estas herramientas sujetas a la concentración empresarial necesitan cantidades masivas de datos (inputs) con las que poder efectuar el aprendizaje y el análisis que las permita operar. Por esto, reproducen los mismos retos que ya se han visto en los procesos de recolección de big data. Uno de estos es la difuminación de las fronteras entre la vida privada y la pública, puesto que en la mayoría de casos no es posible obtener un consentimiento consciente e informado. Además, los conjuntos de datos utilizados para alimentar las Inteligencias Artificiales peligran verse influidos por sesgos de varios tipos, como por ejemplo, el de género y el racial; que pueden hacer que el proceso de toma de decisiones de los sistemas basados en IA reproduzca estos mismos prejuicios. Para mitigar esta posible consecuencia será necesario primero asegurar una representación equitativa en las muestras de datos. Además, desde el punto de vista de las desigualdades, el acceso a estas herramientas, a pesar de que se pueda democratizar hasta cierto punto la generación de contenido, inevitablemente se verá afectado por la brecha digital en sus dimensiones económica, geográfica y demográfica.

    La Inteligencia Artificial es incapaz de distinguir la realidad de la ficción

    Además, las soluciones de generación de imágenes y texto mediante IA también se enfrentan a un reto en cuanto a la desinformación. En el caso de herramientas de texto como ChatGPT se ha observado que la Inteligencia es incapaz de distinguir datos reales de la ficción. Mientras, en cuanto a las herramientas de generación de imágenes una de las principales amenazas es su utilización para la suplantación de identidad; a pesar de que ya se han tomado medidas al respecto desde las propias empresas creadoras. Por ejemplo, en el caso de Dall·E 2, los prompts no aceptan nombres de personas reales.

    Según indican los miembros del grupo de investigación Ética Práctica y Democracia (Departamento de Filosofía y Sociología) Elsa González y Patricio Calvo en su artículo Ethically governing artificial intelligence in the field of scientific research and innovation, ha habido intentos de regulación para hacer frente a los posibles retos que plantea el desarrollo de las herramientas basadas en IA. Este tipo de iniciativas, sin embargo, se han encontrado con ciertas limitaciones. Es el caso del Parlamento Europeo, que en 2017 y 2021 ha presentado marcos legislativos, aunque el rápido desarrollo de estas herramientas y la restricción geográfica al ámbito europeo de estas propuestas legislativas limitan su capacidad de actuación.

    El espacio privado, al mismo tiempo, también ofrece casos de propuestas de autorregulación, con compañías privadas que han definido sus propios códigos éticos, conductuales y de buenas prácticas. Aun así, estos planteamientos son cuestionados por su motivación estratégica: “evadir la regulación estatal que pueda limitar o prevenir los grandes beneficios de su aplicación práctica”, argumentan González y Calvo.

    ¿Por qué es tan difícil legislar sobre IA?

    Aun así, dentro del marco europeo se ha trabajado para establecer un marco ético en el gobierno de los recursos de IA, como es el caso del proyecto de investigación SIENNA, completado en 2021. Esta iniciativa pretende desarrollar una serie de guías para comités éticos y códigos de conducta, no tanto en la utilización, sino en el propio proceso de desarrollo de diferentes tecnologías, entre ellas las Inteligencias Artificiales. El proyecto propone guiar los procesos de innovación en el campo de la IA a partir de 6 principios: “autonomía humana; privacidad y gobernanza de datos; transparencia; equidad; bienestar individual, social y medioambiental; y accountability y supervisión.”

    De este modo, para complementar las propuestas regulatorias planteadas a nivel gubernamental, González y Calvo defienden en su artículo la aplicación de la ETHNA System, tanto a las organizaciones investigadoras (universidades, parques tecnológicos, centros de innovación o de investigación aplicada) como las que financian investigaciones. Según los miembros del grupo Ética Práctica y Democracia, una entidad interesada al desarrollar herramientas IA tendría que aplicar el sistema si pretende realizar una práctica investigativa “socialmente deseable y éticamente aceptable”. Especialmente, con la intención de poder integrar sus públicos de interés mediante una mayor participación y poder hacer frente a los retos actuales de la investigación: “integración, perspectiva de género, compromiso con el público y el acceso libre”.

    United Unknown

    CAP 2: IA en las redacciones. ¿Quién ha escrito este reportaje?

    Carlos Cuesta y Vladyslav Hostyuk

    15 de junio 2023

    El 4 de abril, en las portadas del periódico de tirada nacional El Mundo apareció, por primera vez en el periodismo español, una imagen creada por una Inteligencia Artificial. Se trataba de un montaje donde aparecían juntos el exvicepresidente Pablo Iglesias y la ministra de Trabajo Yolanda Díaz, dos figuras que, actualmente, sería complicado ver en una misma foto. La pieza a la que pertenece esta imagen es un reportaje sobre United Unknown, un colectivo que aprovecha las herramientas generativas basadas en IA para crear sátira política.

    Más allá de esta portada hecha para sorprender, la aplicación de herramientas de IA en el mundo del periodismo, pero, no se trata de un caso aislado y novedoso. Es el caso del periodismo hi-tech, término acuñado por el investigador Ramón Salaverría en 2015, el cual aprovecha los últimos adelantos tecnológicos (como drones, realidad virtual o las herramientas que nos ocupan en este caso) para producir su contenido. Más específicamente, respecto a la práctica profesional basada en aprovechar la Inteligencia Artificial, podemos encontrar el caso del periodismo automatizado (“automated journalism”, como lo define originalmente Andreas Graefe) que incorpora el uso de logaritmos para generar noticias sin necesidad de contar con intervención humana.

    El 76,2% de medios admiten ya utilizar la IA en sus redacciones.

    Imagen creada por IA publicada en El Mundo. Autores: United Unknown

    Dentro de esta tendencia, son bastantes las herramientas que han acabado interviniendo en muchas de las tareas presentes en la producción de información. Los principales usos, entre otros, son la selección de fuentes y temas, la personalización de contenidos y su distribución. Es decir, la IA influye en el análisis de la realidad social para extraer temas relevantes para producir contenidos, así como las fuentes que se utilizarán para producirlos, selecciona las personas a las que llegarán y por qué canales los recibirán; una integración vertical a varios niveles. Esto ha llevado organismos como el Consejo de la Información de Cataluña a sondear la presencia de estos recursos en las redacciones y han concluido que el 76,2% de los medios encuestados admiten utilizarlas ya. Del mismo modo, el Instituto Reuters afirma que cerca del 80% de directivos de empresas de comunicación ven la IA como una implementación clave en la automatización de la producción de contenidos y la personalización de estos.

    La introducción de herramientas basadas en IA en el ámbito periodístico ha beneficiado considerablemente algunas de sus modalidades, como son el periodismo de datos y el de verificación, que han encontrado en la gestión automatizada de datos masivos una buena oportunidad para producir sus publicaciones. El periodismo deportivo, específicamente, fue uno de los pioneros en incorporar las posibilidades del periodismo automatizado (en 2016 The Washington Post ya empleó un bot para narrar los Juegos Olímpicos de Río de Janeiro), a pesar de que otras tipologías también hayan encontrado en la automatización una oportunidad para facilitar la producción de información. Es el caso del seguimiento electoral en el ámbito hiperlocal realizado por RTVE y Narrativa en 2021 con la intención de cubrir los resultados en territorios de la España vaciada.

    Pese a la extendida presencia de las herramientas basadas en IA, su implementación comporta una serie de riesgos o retos que, por ahora, las redacciones no han abordado. Por un lado tenemos toda una serie de cuestiones que afectan a la profesión. Además de las más obvias –la reducción de las tareas humanas–, encontramos una creciente necesidad de una formación para utilizar estas herramientas que permita evitar el potencial de los algoritmos para generar sesgos. Una formación que inevitablemente llevará a un mayor grado de especialización en la profesión. Por otro lado encontramos los riesgos que afectan a la calidad de la información, como por ejemplo el potencial de estas Inteligencias para generar y reproducir desinformación, o cuestiones relativas a la atribución de responsabilidades sobre el contenido donde la IA se utiliza parcialmente o lo produce de forma automática; aspectos que afectan a la credibilidad de la información. Finalmente, encontramos también retos que conciernen a los consumidores de los medios de comunicación. Entre ellos, la gestión de la privacidad y la protección de datos o la transparencia de los medios que incorporan Inteligencias Artificiales.

    Retos de la transparencia de la IA: diferenciar contenidos automatizados e indicarlo a los lectores.

    Teniendo en cuenta los riesgos y retos que plantea la aplicación de la IA en la producción de información, cobra mayor urgencia la necesidad de emplear estas herramientas mediante un uso ético. Los miembros del grupo de investigación Periodismo, Comunicación y Poder (Departamento de Ciencias de la Comunicación) Rosana Sanahuja y Pablo López defienden la transparencia como uno de los “aspectos clave para avanzar en un uso responsable del IA por parte de los medios” en su artículo Ética y uso periodístico de la inteligencia artificial. Los medios públicos y las plataformas de verificación como precursoras de la rendición de cuentas en España. De este modo, diferenciar el contenido informativo elaborado de manera automatizada de aquel que no lo haya incorporado a su proceso de elaboración o indicar a los lectores cómo son aprovechadas las herramientas basadas en IA acontecen comportamientos claves en la rendición de cuentas de los medios de comunicación.

    En cuanto a nosotros, como consumidores de información, es evidente que resulta necesaria una nueva dimensión de educación mediática. Esta tiene que ayudar a reconocer la imprenta de estas herramientas en los productos periodísticos que consumimos para que no acontezcan una herramienta de manipulación en el futuro más próximo.

    Boris Eldagsen

    CAP 3: Arte generado con IA. ¿De dónde ha salido este cuadro?

    Carlos Cuesta y Vladyslav Hostyuk

    15 de junio 2023

    La feria del estado de Colorado cada año celebra un concurso de arte en varias disciplinas. Uno de tantos certámenes artísticos realizados a nivel global que con su 150ª edición generó una de las mayores controversias del sector artístico y tecnológico del año pasado cuando Théâtre de Opéra Spatial fue nombrada ganadora en la categoría de arte y fotografía digital. La obra, a cargo de Jason M. Allen, había sido creada por la herramienta de generación de imágenes mediante Inteligencia Artifical Midjourney y su calidad había sido mejorada con Gigapixel IA, otra herramienta.

    De este modo, Théâtre de Opéra Spatial se convertía en el pasado septiembre de 2022 en una de las primeras obras generadas por IA en ganar una competición artística oficial. Frente a las críticas sobre la falta de autenticidad de la imagen o las acusaciones de victoria fraudulenta, Allen defendió su creación argumentando que no había roto las reglas del certamen y se reivindicó como el verdadero creador de la pieza, apoyado por las herramientas empleadas. Pero, ¿realmente se lo puede considerar el autor de una obra artística?

    Nunca hasta ahora una mente (artificial) había podido recombinar tantas imágenes en una creación nueva y, paradójicamente, totalmente diferente.

    Théâtre de Opéra Spatial de Jason M. Allen, premiada en el certamen artístico de Colorado State Fair

    Sucesos como este, inevitablemente, plantean varias preguntas, la más acusada de ellas sobre la autoría. ¿Hasta qué punto podemos denominar como autora a una persona que genera una imagen por IA? Bien es cierto que ella escribe la premisa o prompt a partir de la que se compone la imagen, pero esta realmente es fruto de los miles de referencias con las cuales se ha alimentado el motor. A pesar de que toda la creación artística coge referencias e inspiración de diferentes lugares –solo hay que ver Las meninas de Velázquez y la versión que hizo Picasso siglos después–, hasta ahora no nos habíamos enfrentado nunca a que una mente (artificial) pudiera recombinar tantas imágenes en una creación nueva y, paradójicamente, totalmente diferente.

    Tan solo unas semanas después de la polémica con Allen, el MoMA de Nueva York estrenó Unsupervised, de Rafik Anadol, una instalación que utilizaba un motor de Inteligencia Artificial para combinar todas las obras de la entidad con factores como la temperatura de las salas, la luz que entra dentro del edificio o, incluso, el calor que desprenden los visitantes para formar una imagen que cambia permanentemente. Esta obra, más colectiva imposible, es una de las primeras incursiones de los museos en este territorio.

    Rafik Anadol y su obra Unsupervised en el MoMA

    Con este tipo de creaciones, la situación se vuelve más complicada todavía si añadimos la dimensión de la propiedad intelectual. Casi la totalidad de servicios de generación de imágenes con IA se financian con suscripciones, de forma que a no ser que la usuaria pague, todas las creaciones pertenecen a la empresa que ha desarrollado el motor. Si a esto le sumamos que, por ahora, los intentos de legislar al respecto han sido insuficientes, veremos que la cuestión de la autoría dista de ser respondida.

    Aun así, podemos concebir la IA como una de tantas herramientas que en su momento supusieron una revolución en cómo vemos y entendemos las imágenes. Solo hay que ver cómo la fotografía ha acabado influyendo en la pintura, con estilos abstractos o, por el contrario, hiperrealistas. Como define Juncal Caballero, del grupo Investigación en Estudios Feministas y de Género (Departamento de Historia, Geografía y Arte), quizás, la verdadera autoría reside en cuánta creatividad aplicamos al uso de estos motores. Sobre todo, teniendo en cuenta que muchos todavía generan imágenes muy homogéneas y con características que enseguida permiten reconocer qué aplicación las ha hecho.

    ¿Cómo conviviremos con las imágenes generadas con IA?

    Si las imágenes generadas mediante Inteligencia Artificial empiezan a formar parte de nuestro ecosistema visual y mediático, ¿cómo conviviremos con este nuevo escenario? Por un lado, se plantea la cuestión de la capacidad de discernir aquellas creaciones artificiales de las que no lo son. Las herramientas generativas todavía no son capaces de ofrecer resultados plenamente realistas, pero su capacidad de mejora aumenta frenéticamente, exigiendo que nuestra cultura visual evolucione paralelamente para poder identificar las manipulaciones en un futuro próximo. Recientemente hemos encontrado casos donde se han viralizado algunas “fotografías” generadas por aplicaciones como Midjourney, como es el caso del papa Francisco vestido con un abrigo de Balenciaga o el expresidente de los EE. UU. Donald Trump siendo detenido. Esta última, publicada cuando se anunció su imputación, llegó a ser compartida entre los usuarios, convirtiéndose en una fake new.

    Por otro lado, el acceso a estas herramientas generativas no está garantizada a todas las usuarias. La brecha digital previa (la incapacidad de adquisición de dispositivos o el pago de suscripciones a las aplicaciones) impedirá la democratización del arte que muchas veces prometen sus desarrolladores. Aun así, todavía queda una frontera que el arte creado con IA difícilmente cruzará: las emociones.

    CAP 4: Educar en competencias de IA. ¿Lo reescribimos con ChatGPT?

    Carlos Cuesta y Vladyslav Hostyuk

    15 de junio 2023

    En menos de un año desde su salida al mercado, las primeras herramientas que permiten emplear Inteligencias Artificiales a nivel de usuario ya forman parte de los requisitos que muchas empresas piden en las ofertas de trabajo. Es decir, estas herramientas se han convertido en una realidad profesional y en un asset a tener en cuenta en el mundo laboral. Esto implica, pues, que será imprescindible que acabemos implementando la competencia en IA en las etapas de educación básica y superior.

    “La Inteligencia Artificial forma parte de la realidad cotidiana de todo el mundo ahora mismo, por tanto, todo aquello presente a la cotidianidad tiene que formar parte de la educación”, asegura Anna Sánchez, miembro del Grupo de Enseñanza, Aprendizaje y Tecnología (Departamento de Pedagogía y Didáctica de las Ciencias Sociales, la Lengua y la Literatura). La incorporación de las herramientas automatizadas de contenido a la enseñanza requiere, inherentemente, de un personal docente que acompañe al alumnado durante todo el proceso de aprendizaje de estas herramientas. Esta necesidad se vuelve más acuciante si se tiene en cuenta, como se ha mencionado en anteriores capítulos de este monográfico, la capacidad arbitraria de la IA de reproducir sesgos raciales, étnicos o de género.

    “No aprendemos a leer y escribir de hoy para mañana, entonces lo mismo ocurre con la IA y tenemos que trabajar gradualmente”.

    La IA, como elemento que forma parte de la realidad cotidiana, tiene que ser trabajada en la educación.

    Entonces, si tenemos en cuenta estas circunstancias –y, además, que la mayoría de herramientas piden ser mayor de edad para ser utilizadas–, puede parecer que el momento óptimo para implementar el IA es la educación superior, en la formación profesional y las universidades. La realidad, sin embargo, nos muestra que los alumnos de secundaria ya emplean estos recursos. Entonces, se tendría que empezar a formar en etapas tan tempranas como el último ciclo de primaria, al mismo tiempo que se adapta el temario para que la IA se convierta en un asistente y no un recurso para el fraude. Ya en las universidades o los ciclos formativos, esta competencia se adaptaría a las necesidades profesionales futuras. Para Anna Sánchez es imprescindible que el proceso acompañe al alumnado en un proceso de aprendizaje continuo: “no aprendemos a leer y escribir de hoy para mañana, pues lo mismo ocurre con el IA y tenemos que trabajar gradualmente”.

    Para plantear este tipo de formación, también es imprescindible seguir desarrollando la competencia digital docente: el conjunto de habilidades, conocimientos y actitudes que tienen que tener las personas educadoras respecto a las herramientas digitales. Es decir, conseguir un profesorado capaz de formar en materia de utilización de herramientas basadas en IA, sumado a otras competencias como creación de contenido o comunicación en línea síncrona y asíncrona. Se han realizado ya muchos esfuerzos para expandir la competencia digital docente y un ejemplo es el Proyecto ProDigital, coordinado en la UJI, para promover la formación en competencias digitales del alumnado y las docentes universitarias.

    Para Sánchez, el foco de utilización de estas inteligencias en el proceso educativo tendría que estar en la elaboración de productos –en el caso de la educación superior– o trabajos de clase –en caso de etapas anteriores–. Lo más conveniente sería que estas tareas implicaran un uso reflexivo sobre las herramientas de IA, más allá de la mera generación de contenidos entregables.

    “No basta con enseñar con IA técnicamente; como ciudadanos debemos ser críticos”

    Al final, el auge de las herramientas de IA, especialmente aquellas basadas en la generación de contenido, proporciona muchas oportunidades a la docencia: tanto para agilizar la tarea de las propias personas educadoras como para adaptar la enseñanza de las nuevas herramientas a todos los niveles de la educación. La cuestión permanecerá, sin embargo, en el aprendizaje de un uso ético de las aplicaciones más allá del uso meramente técnico para evitar reproducir los sesgos propios de nuestra sociedad actual. Es decir, ser críticos con la tecnología.

    Créditos

    Realización: Javi Marín
    Diseño: María Martín

    Agradecimientos

    Prof. Patrici Calvo
    Profa. Elsa González
    Prof. Pablo López
    Profa. Rosana Sanahuja
    Profa. Juncal Caballero
    Profa. Anna Sánchez
    Labcom UJI

    Grupos de investigación

    Ètica Pràctica i Democràcia
    Periodisme, Comunicació i Poder
    Investigació en Estudis Feministes i de Gènere
    Grup d’Ensenyament, Aprenentatge i Tecnologia

    Suscríbete a ‘Humanes i Socials’ para no perder detalle de las próximas publicaciones