Press "Enter" to skip to content

As es como OpenAI, la creadora de ChatGPT, planea prevenir este ao la desinformacin electoral

Actualizado

OpenAI, la empresa creadora de ChatGPT, ha trazado un plan para evitar que sus herramientas se utilicen para difundir desinformacin electoral, en un ao en que los votantes de ms de 50 pases se preparan para depositar su voto en elecciones nacionales.

Las medidas de proteccin expuestas por la startup de inteligencia artificial con sede en San Francisco incluyen una combinacin de polticas preexistentes e iniciativas ms recientes para evitar el uso indebido de sus populares herramientas de IA generativa. Estas herramientas pueden crear textos e imgenes inditos en cuestin de segundos, pero tambin pueden emplearse para fabricar mensajes engaosos o fotografas falsas que resulten crebles.

Las medidas, esbozadas en su blog esta semana, se aplicarn especficamente a OpenAI, slo una de un universo en expansin de compaas que desarrollan herramientas avanzadas de IA generativa. La empresa, que anunci estas medidas el lunes, dijo que planea continuar con su «trabajo de seguridad de la plataforma con mayor informacin electoral precisa, la aplicacin de polticas cuidadosamente consideradas y mejorando la transparencia».

La compaa indic que prohibir el uso de su tecnologa para crear chatbots que se hagan pasar por candidatos o gobiernos reales, para tergiversar el funcionamiento del sistema de votacin o para disuadir a la gente de votar. Aadi que hasta que no se investigue ms a fondo el poder persuasivo de su tecnologa, no permitir a sus usuarios crear aplicaciones para campaas polticas o grupos cabilderos.

A partir de «principios de este ao», OpenAI pondr una marca de agua digital a las imgenes de IA creadas con su generador DALL-E. Esto marcar permanentemente el contenido con informacin sobre su origen, lo que facilitar identificar si una imagen que aparece en otro lugar de la web se cre utilizando la herramienta de IA.

La empresa tambin ha informado que est colaborando con la Asociacin Nacional de Secretarios de Estado para dirigir a aquellos usuarios de ChatGPT que hagan preguntas logsticas sobre elecciones hacia la informacin rigurosa que se encuentra en CanIVote.org, el sitio web no partidista de ese grupo.

Mekela Panditharatne, asesora del programa de democracia del Centro Brennan para la Justicia, dijo que los planes de OpenAI son un paso positivo hacia la lucha contra la desinformacin electoral, pero depender de cmo se apliquen.

«Por ejemplo, hasta qu punto sern exhaustivos y completos los filtros a la hora de sealar cuestiones sobre el proceso electoral?», cuestion. «Habr elementos que se escapen?»

ChatGPT y DALL-E de OpenAI son algunas de las herramientas de IA generativa ms potentes hasta la fecha. Pero hay muchas empresas con una tecnologa igual de sofisticada que no cuentan con tantos mecanismos de proteccin contra la desinformacin electoral.

Aunque algunas empresas de redes sociales, como YouTube y Meta, han introducido polticas de etiquetado de IA, est por verse si sern capaces de detectar a los infractores de manera sistemtica.

«Sera til que otras empresas de IA generativa adoptaran directrices similares para que hubiera una aplicacin de normas prcticas en todo el sector», afirm Darrell West, investigador snior del Centro de Innovacin Tecnolgica de la Brooking Institution.

Sin la adopcin voluntaria de tales polticas en todo el sector, la regulacin de la desinformacin generada por IA en la poltica requerira legislacin. En Estados Unidos, el Congreso an no ha aprobado ninguna ley que regule el papel de esta industria en la poltica, a pesar de contar con cierto apoyo bipartidista. Mientras tanto, ms de un tercio de los estados de Estados Unidos han aprobado o presentado proyectos de ley para hacer frente a los deepfakes en las campaas polticas, mientras que la legislacin federal est estancada.

El director general de OpenAI, Sam Altman, dijo que, incluso con todas las medidas de seguridad implementadas por su empresa, no se siente tranquilo.

«Creo que es bueno que estemos muy preocupados y que vayamos a hacer todo lo posible para que salga lo mejor posible», dijo durante una entrevista el martes en un evento de Bloomberg durante el Foro Econmico Mundial de Davos, Suiza. «Vamos a tener que vigilar esto muy de cerca este ao. Un seguimiento muy estricto. Un circuito de retroalimentacin muy estrecho».