Cuando se trata de desinformación, “las redes sociales llevaron el costo de distribución a cero, y LA AI generativa lleva el costo de generación a cero”, dice Renée DiResta del Observatorio de Internet de Stanford. Los grandes modelos de lenguaje, como GTP -4, facilitan la producción de artículos de noticias engañosos o publicaciones en redes sociales en grandes cantidades.
Y LA AI puede producir más que texto. Clonar una voz usando ia solía requerir minutos, o incluso horas, de audio de muestra. Sin embargo, el año pasado, investigadores de Microsoft dieron a conocer VALL-E, un modelo DE INTELIGENCIA ARTIFICIAL que es capaz de clonar la voz de una persona a partir de un clip de tres segundos de su conversación y hacer que diga cualquier texto determinado.
Open AI, la empresa estadounidense detrás de GPT-4, ha desarrollado una herramienta similar, Voice Engine, que puede clonar de manera convincente cualquier voz a partir de un clip de 15 segundos. Aún no lo ha publicado, reconociendo “riesgos graves, que son especialmente importantes en un año electoral”.
De manera similar, Sora, de Open AI, puede producir videos sintéticos sorprendentemente realistas, en respuesta a indicaciones de texto, de hasta un minuto de duración. Open ai aún no ha hecho público a Sora, en parte porque podría usarse para crear desinformación. Además de proporcionar nuevas formas de desacreditar o tergiversar a los políticos, las herramientas DE INTELIGENCIA ARTIFICIAL también plantean el espectro de la desinformación personalizada, generada para atraer a grupos pequeños (piense en las mamás del fútbol en una ciudad específica). Incluso puede ser posible “microdirigido” a personas con desinformación, basándose en el conocimiento de sus preferencias, prejuicios e inquietudes.
Aunque todo esto es preocupante, vale la pena recordar que no todos los aspectos de la tecnología son negativos. Resulta que LA IA PUEDE UTILIZARSE TANTO PARA combatir la desinformación como para producirla.
Fuente: El Economista