OpenAI promete herramientas contra la desinformación electoral en varios países este 2024

"Queremos asegurarnos de que nuestra tecnología no se use para socavar" procesos democráticos, indicó la firma. 

La firma estadounidense OpenAI, creadora del robot virtual ChatGPT, anunció que lanzará herramientas contra la desinformación este año en el que se celebran docenas de elecciones en países que nuclean a la mitad de la población mundial.

La herramienta conversacional ChatGPT impulsó una revolución de la inteligencia artificial (IA), pero también provocó advertencias de especialistas de que estos programas podrían inundar internet de desinformación e influir en la decisión de los votantes.

Ante la celebración de numerosas elecciones este año en países como Estados Unidos, India y Gran Bretaña o en otros más pequeños como Uruguay, OpenAI declaró el lunes que no permitirá que su tecnología -incluidos ChatGPT y el generador de imágenes DALL-E 3- sean utilizados en campañas políticas.

"Queremos asegurarnos de que nuestra tecnología no se use para socavar" procesos democráticos, afirmó OpenAI en un blog.

"Todavía estamos trabajando para comprender la eficacia de nuestras herramientas para la persuasión personalizada. Hasta que sepamos más, no permitimos construir aplicaciones para campañas políticas y grupos de presión", añadió la firma.

La desinformación, incluida la generada por IA, es uno de los mayores riesgos mundiales a corto plazo y podría generar perjuicios para gobiernos recién elegidos en las principales potencias económicas, advirtió la semana pasada el Foro Económico Mundial.

 
Según los expertos, el temor a la desinformación electoral comenzó hace años, pero el fácil acceso a potentes generadores de texto e imágenes basados en IA aumentaron la amenaza, especialmente si los usuarios no pueden distinguir fácilmente si el contenido es falso o fue manipulado.

OpenAI busca hacer más confiables los textos de ChatGPT

OpenAI informó el lunes que prepara herramientas que hagan más confiables los textos generados por ChatGPT, así como ofrecer a los usuarios la posibilidad de detectar si una imagen ha sido creada con DALL-E 3.

"A principios de este año implantaremos las credenciales digitales de la Coalition for Content Provenance and Authenticity (Coalición para la Autenticidad y Procedencia de los Contenidos), un enfoque que codifica los detalles sobre la procedencia de los contenidos mediante criptografía", declaró la empresa.

La coalición, también conocida como C2PA, pretende mejorar la identificación y rastreo de contenidos digitales. Entre sus miembros figuran grandes empresas como Microsoft, Sony, Adobe y las japonesas especializadas en imagen Nikon y Canon.

Según OpenAI, el ChatGPT dirigirá a los usuarios a sitios web autorizados cuando se le planteen preguntas de procedimiento sobre las elecciones estadounidenses; por ejemplo, dónde votar.

"Las conclusiones de este trabajo servirán de base para nuestro enfoque en otros países y regiones", afirmó la empresa. Acotó que DALL-E 3 cuenta con "guardavallas" para impedir que se generen imágenes de personas reales, incluidos candidatos.

El anuncio de OpenAI sigue a las medidas tomadas por gigantes tecnológicas como Google y la red social Facebook, para limitar la interferencia electoral, especialmente mediante el uso de la IA.

AFP previamente desmintió falsos documentales como el del presidente de Estados Unidos anunciando el reclutamiento de soldados o el corto de la demócrata Hillary Clinton proclamando su apoyo a la candidatura presidencial del gobernador republicano del estado de Florida, Ron DeSantis.

Ese tipo de informes, así como diversos audios, circularon en las redes sociales durante la campaña para las elecciones de Taiwan realizadas este mes, según estudios realizados por el Fact Check de AFP.

ver en sitio completo: OpenAI promete herramientas contra la desinformación electoral en varios países este 2024