Cargando...
  • Alto contraste

Asia Pacífico | Observatorio Parlamentario

Corea del Sur protege las elecciones y la democracia mediante ley contra contenidos Deepfake

03 abril 2024

Luego del escándalo producido por un seguidor del partido de gobierno que creó un video generado por Inteligencia Artificial (IA) donde aparece el presidente coreano apoyando abiertamente a un candidato, la Asamblea Nacional del país asiático aprobó una ley para prohibir contenidos creados por medios sintéticos durante campañas electorales.

Imagen de la nota

La medida ha tenido una respuesta favorable, ya que a 50 días de las elecciones la Comisión Electoral Nacional sacó de circulación más de un centenar de contenidos falsos. Según opinión de experta, Ekaterina Kostioukhina este tipo de medidas son necesarias por todo el daño que produce la manipulación de percepciones y emociones. Más antecedentes de esta realidad, en la siguiente nota.

Sacar de circulación contenidos falsos

El desarrollo de la Inteligencia Artificial (IA) ha permeado diversos aspectos de la vida diaria, brindando ayuda en la ejecución de tareas cotidianas y complejas. Sin embargo, su utilización indiscriminada puede acarrear consecuencias negativas. Un ejemplo de esto tuvo lugar en Corea del Sur, previo a las elecciones locales de junio de 2022, cuando un seguidor de un candidato del Partido del Poder Popular generó un vídeo en el que se mostraba al presidente Yoon Suk Yeol respaldando a su postulante.

Esta imagen generada a través de IA desencadenó una serie de discusiones respecto de la utilización de los contenidos de Deepfake, ya que por una parte significa un gasto menor en campañas para mejorar la imagen pública de los candidatos, pero por otra, pueden llegar a confundir o crear realidades falsas que confundan o perjudique seriamente a personas inocentes.

En consecuencia de este dilema y la nueva realidad que se estaba creando de cara a las elecciones, la Asamblea Nacional de Corea aprobó una ley para prohibir los contenidos de Deepfake generados en el contexto de las campañas electorales. Según Tae Yeon Eom, de la Fundación Asia Pacífico de Canadá, esta regulación evita malas prácticas específicas, pero también apunta a contrarrestar la desinformación y defender la democracia.

De tal manera, las violaciones a la ley no sólo consideran multas que superan los 30 mil dólares, sino también podrían alcanzar penas de prisión. Con ello, 90 días antes de las elecciones, las campañas estarán restringidas y no podrán utilizar contenidos de Deepfake. Esta medida comenzó a regir el 22 de enero de 2024 y se activa 90 días antes de las elecciones para escoger la 22ª legislatura de la Asamblea Nacional coreana.

Una vez creada la regulación, la Comisión Electoral Nacional puso en marcha un equipo de respuesta especial dedicado a detectar información falsa y calumnias, con el fin de responder de manera proactiva en el cumplimiento de la ley. Además, la legislación contiene otras regulaciones como la prohibición de propaganda o publicidad que contenga el nombre de partidos políticos, por lo que no se podrán anunciar ni en escritos, ni en obras de teatro, películas o fotografías que además muestren imágenes de los candidatos, o personas que deseen convertirse en candidatos.

Ahora bien ¿ha tenido éxito la aplicación de esta ley?. Una nota del Korea Times publicada el 19 de febrero de 2024 da cuenta de la realidad a menos de 50 días de las elecciones (se realizarán el 10 de abril). La Comisión Electoral Nacional detectó 129 contenidos mediáticos generados por IA desde el 29 de enero, constituyendo una violación a la reciente ley. Independientemente de la preocupación que ha generado esta realidad entre la ciudadanía y los medios de comunicación, el hecho de reconocer y sacar de circulación más de un centenar de contenidos falsos, es un avance.

Contenidos maliciosos generados por IA y su amenaza a la democracia

En observación de la realidad en Corea del Sur y desde una perspectiva latinoamericana, para Ekaterina Kostioukhina, doctora en medicina de la Universidad de Harvard y experta en comportamiento humano en entornos digitales, es crucial que los líderes y las autoridades prioricen la protección de la sociedad en el uso de la tecnología. “Puede resultar altamente perjudicial si se emplea de manera incorrecta. Similar al caso de las armas, que pueden ser beneficiosas para la caza o la defensa, pero si se utilizan de forma inapropiada, provocan daños que van desde conflictos bélicos hasta tragedias personales. La IA se presenta como una herramienta poderosa que, como hemos observado, puede ocasionar graves consecuencias. Durante procesos electorales, la sociedad se vuelve más vulnerable, de manera análoga a los cangrejos al mudar de caparazón y requerir un período de resguardo”, señaló.

En la misma línea destacó que en tiempos de elecciones la percepción de inestabilidad se intensifica. “No solo implica un cambio de liderazgos, sino también transformaciones en la forma de pensar y actuar. Lamentablemente, las campañas políticas a menudo recurren a estrategias obsoletas de desacreditación, fomentando divisiones ideológicas que generan reacciones negativas hacia los candidatos y sus seguidores. Esta polarización extrema puede desencadenar crisis políticas e incluso golpes de estado, potenciada en la actualidad por el uso de herramientas como la voz y las redes sociales, y plantea un escenario aún más complejo con la integración de la inteligencia artificial”, explicó.

En cuanto a la posibilidad de contar con leyes como las de Corea del Sur que prohíban y sancionen los contenidos Deepfake aseguró que la difusión de videos falsos o manipulados mediante inteligencia artificial plantea desafíos adicionales. “Una vez que el estímulo visual llega al cerebro humano, es difícil para la mente desvincularse de esa imagen. A través de la neurociencia, comprendemos que el impacto de estas imágenes es profundo e influyente, llegando directamente al pensamiento subconsciente. La capacidad de la IA para manipular percepciones y emociones a través de contenido visual representa un riesgo significativo, ya que moldea reacciones y opiniones sin posibilidad fácil de reversión. La necesidad de regular y supervisar el uso de estas tecnologías se vuelve imperativa en un contexto político cada vez más influenciado por medios digitales sofisticados”, sostuvo.

Mirada desde Chile y América Latina

Para Ekaterina Kostioukhina, es necesario ver este problema desde la legislación con perspectiva de futuro. “En América Latina, Chile destaca por su avance en la regulación de la tecnología, siendo uno de los pioneros en este campo. Sin embargo, se ha notado que el proceso de regulación se ha vuelto obsoleto, ya que las leyes avanzan a un ritmo burocrático mientras que las tecnologías lo hacen a una velocidad mucho mayor. Esto ha llevado a situaciones en las que una ley queda desactualizada rápidamente debido a los constantes cambios tecnológicos. Además, se ha reconocido que este es un problema a nivel internacional, dado que los cibercriminales pueden operar desde diferentes jurisdicciones geográficas, lo que les permite enviar contenidos dañinos a lugares como Chile y el resto de Latinoamérica con solo un click, causando impactos negativos de forma casi instantánea”, comentó.

Ante esta realidad, afirmó que se ha planteado la necesidad de reformar la manera en que se legisla y se regulan los contenidos. “Esto no solamente involucra a los gobiernos, sino también a las plataformas tecnológicas. Algunos países han comenzado a presionar a las grandes empresas de redes sociales, convocando a sus CEO para que respondan por los posibles daños causados por sus plataformas. Esto busca incentivar a estas compañías a adoptar medidas más efectivas para proteger a los usuarios y evitar sanciones financieras en caso de incumplimiento. Es importante tener en cuenta que estas empresas suelen estar motivadas por intereses comerciales, lo que influye en su comportamiento y en la forma en que diseñan y aplican normas para proteger a los usuarios”, destacó.

Por último, hizo un llamado a enfocarse en los resultados deseados en lugar de centrarse en los pasos intermedios. “En vez de prohibir ciertos usos de la tecnología, es preferible definir claramente los objetivos finales y los actores que deben colaborar para alcanzarlos. Esto puede incluir la participación de plataformas de inteligencia artificial, instituciones educativas para formar a las generaciones presentes y futuras sobre el uso seguro de la tecnología, la población en general para reportar incidentes y colaborar en la prevención de abusos, así como el desarrollo de herramientas tecnológicas que faciliten la identificación y prevención de contenidos peligrosos”, sentenció.

Por equipo Asia Pacífico: asiapacifico@bcn.cl


Comentarios

NOTA: como parte de su misión de promover el debate informado, respetuoso, tolerante e inclusivo, que permita vincular la labor de nuestro Congreso Nacional con la ciudadanía, la BCN se reserva el derecho de omitir comentarios y opiniones que pudieren afectar el respeto a la dignidad de las personas o instituciones, en pos de una sana convivencia democrática.

Videos AP

Selección de videos sobre Asia Pacífico