INTELIGENCIA ARTIFICIAL UK

28.06.2023

Reguladores británicos temen los estragos de la inteligencia artificial en próximas elecciones 

Télam

El futuro del sistema electoral británico se ve amenazado por los avances tecnológicos en inteligencia artificial, que habilitarían nuevas herramientas de manipulación del electorado, por lo que los reguladores temen que la falta de leyes adecuadas puede desencadenar consecuencias devastadoras en las próximas elecciones generales.

Según un informe del diario The Guardian, se está agotando el tiempo para promulgar "cambios generales" que se aseguren al día con las nuevas tecnologías, y existe una creciente preocupación sobre los posibles estragos que la inteligencia artificial podría causar en el proceso electoral en el Reino Unido y Estados Unidos.
Esta tecnología no solo está en manos de expertos políticos y tecnológicos, sino también del público en general.
Desde la generación de videos e imágenes falsas convincentes hasta la manipulación y persuasión masiva de los votantes, el escenario electoral se ve amenazado por un panorama incierto y sin regulaciones claras, asegura el informe.
Preocupan las sospechas sobre el posible mal uso de la inteligencia artificial generativa después de los avances tecnológicos, donde herramientas como ChatGPT y Midjourney pueden generar texto, imágenes e incluso voz de manera convincente.
Aunque las nuevas leyes no estarán listas para las próximas elecciones, que se llevarán a cabo a más tardar en enero de 2025, el organismo de control encargado de regular el financiamiento electoral británico y establecer estándares sobre cómo se deben llevar a cabo las elecciones, instó a los partidos políticos para que se comporten de manera responsable.
Un ejemplo de las posibles nuevas obligaciones que podrían establecerse en el Reino Unido es la responsabilidad de los partidos políticos de revelar cuánto gastan en inteligencia artificial.
Mientras tanto, el Gobierno británico continúa las conversaciones con los reguladores, incluida la Comisión Electoral, que afirma que los nuevos requisitos establecidos por la legislación de 2022 para que el material de la campaña digital incluya una "impresión" que ayude a garantizar que los votantes puedan ver quién pagó por un anuncio o quién está tratando de influir en ellos.
Sin embargo, Louise Edwards, directora de regulación y transformación digital en la Comisión Electoral, dijo al diario británico que los votantes aún no podrán ver cuánto dinero han gastado específicamente los partidos y los activistas en publicidad digital antes de una elección, ni podrán determinar si un anuncio que están viendo ha sido generado con inteligencia artificial.
Edwards afirmó que la ley que regula las campañas políticas y el gasto electoral ha quedado rezagada en relación con el crecimiento y los métodos de las campañas digitales.
La confianza en la forma en que se regulan las campañas en línea es demasiado baja, según Edwards, quien citó una investigación de la comisión que reveló que casi el 60% del público está preocupado por la regulación de las campañas políticas en línea.
La directora de regulación instó a las partes interesadas a actuar de manera responsable en el ámbito de las campañas en internet y la inteligencia artificial, y considera que los reguladores tienen un papel importante en asegurar la confianza del público en las próximas elecciones, que probablemente se llevarán a cabo antes de enero de 2025. 

Denuncian que delincuentes utilizan la IA para amplificar imágenes de abuso sexual Infantil

La explotación infantil encontró un nuevo campo de juego donde los pedófilos están utilizando la tecnología de inteligencia artificial (IA) para crear y comercializar material de abuso sexual infantil realista, según un informe emitido hoy por la BBC.
Uno de los sitios identificados en el informe es Patreon, una plataforma para compartir contenido que permite a los creadores recibir pagos de sus suscriptores.
Aunque Patreon mantiene una política de "tolerancia cero" con respecto a este tipo de imágenes, algunos individuos aún logran burlar el sistema y generar contenido de abuso sexual infantil.
Ante esto, el Consejo de Jefes de Policía Nacional británico (NPCC) reaccionó con indignación, y cuestionó el hecho de que estas plataformas obtengan grandes beneficios sin asumir una "responsabilidad moral".
En respuesta al informe, la Agencia de Inteligencia, Seguridad y Cibernética del Gobierno británico (GCHQ), destacó que los delincuentes de abuso sexual infantil adoptan todas las tecnologías, indicando que "el futuro del material de abuso sexual infantil radica en el contenido generado por IA".
Los perpetradores utilizan un software de inteligencia artificial llamado Stable Diffusion para generar estas imágenes realistas de abuso.
Originalmente diseñado para crear imágenes para arte o diseño gráfico, este software permite a los usuarios especificar cualquier imagen que deseen mediante instrucciones verbales.
Sin embargo, ahora, según la investigación del medio público británico, se la utiliza para crear imágenes perturbadoras de abuso sexual infantil.
Al respecto, Ian Critchley, líder del NPCC en protección infantil, señaló que las imágenes "sintéticas" representan un riesgo real.
Dijo que podrían permitir que un pedófilo avance desde la ideación hasta el abuso real de un niño vivo.
Este problema no se limita a una única plataforma ya que algunos creadores de imágenes de abuso también utilizan Pixiv, una popular plataforma de redes sociales japonesa.
Aunque el sitio tiene políticas contra el contenido explícito, las leyes en Japón, donde Pixiv está alojado, no consideran ilegales las caricaturas y dibujos sexuales de niños.
Ante estos hallazgos, las plataformas en cuestión prometieron tomar medidas: Patreon, por ejemplo, reafirmó su compromiso de eliminar todo material de abuso infantil de su sitio, mientras que Pixiv declaró que estaba asignando recursos sustanciales para combatir este problema. 

COMPARTE ESTA NOTA EN

¡Crea tu página web gratis!