Cargando...
  • Alto contraste

Asia Pacífico | Observatorio Parlamentario

Israel Reyes Gómez: “Es crucial que nuestras decisiones se basen en información veraz”

05 abril 2024

Matemático, informático y consultor en ciberseguridad se refirió a la necesidad de regular contenidos generados a través de Inteligencia Artificial (AI) ante el peligro de distorsionar nuestras percepciones de lo público, a propósito del caso de Corea del Sur donde se creó una ley para evitar los Deepfake en el contexto de elecciones. Además, se refirió a los avances de China y Australia.

Imagen de la nota

El experto en ciberseguridad internacional y ciberestrategia, Israel Reyes Gómez, reflexionó sobre la forma cómo los algoritmos construyen sus funciones con base en información no respaldada ni verificada. Más de sus reflexiones y proyecciones sobre este tema, en la siguiente entrevista.

Necesidad de legislar para evitar contenidos falsos creados a través de IA

”Definitivamente es un tema de gran importancia, especialmente en el contexto de las campañas electorales donde las nuevas herramientas digitales como la inteligencia artificial pueden ser utilizadas de manera abusiva para engañar a las personas y crear una percepción distorsionada de la realidad. Es fundamental evaluar los riesgos asociados al uso de la inteligencia artificial en las elecciones. Esto determinando qué prácticas son aceptables y cuáles deben ser restringidas debido a su potencial para inducir a error a la población.

La inteligencia artificial se está volviendo cada vez más común y se integra en diversas áreas de nuestra sociedad, incluyendo las campañas políticas. Si bien puede considerarse como una mejora o extensión de las herramientas tradicionales, como la edición de imágenes con Photoshop para mejorar la apariencia de los candidatos, existen situaciones en las que su uso debe ser regulado debido al riesgo que representa para la percepción pública. Un ejemplo ilustrativo fue el caso de Cambridge Analytica en 2016, donde se emplearon datos demográficos, geográficos y psicográficos para dirigir campañas altamente segmentadas con gran efectividad.

Es evidente que la inteligencia artificial ya forma parte de nuestra vida en esta era digital. Por tanto, resulta necesario establecer normativas que definan claramente los límites y restricciones en su uso, evitando así posibles impactos negativos en la sociedad. Aunque una prohibición total puede no ser viable, es esencial establecer criterios específicos que limiten su aplicación en situaciones de alto riesgo que puedan distorsionar la realidad y perjudicar a la población”.

Necesidad de resguardar la democracia

”La democracia es un proceso fundamental y una garantía universal en nuestros países, donde tenemos la posibilidad de elegir democráticamente a nuestros líderes. En la actualidad, se ha introducido el concepto de algoritmocracia, así como la discusión sobre el uso o abuso de la inteligencia artificial. ¿Por qué es tan relevante esto? Porque implica la toma de decisiones que como sociedad tomamos respecto a nuestros dirigentes. Es crucial que nuestras decisiones se basen en información veraz y no en engaños o manipulaciones.

Si no regulamos el uso de la inteligencia artificial y los algoritmos, corremos el riesgo de tomar decisiones desinformadas que pueden tener consecuencias perjudiciales a nivel individual, familiar y social. Por ello, durante los periodos electorales, es esencial optar por decisiones fundamentadas en información transparente que permita a las personas conocer verdaderamente las propuestas y estrategias de los candidatos. Si toda la información es generada mediante inteligencia artificial, se corre el riesgo de desinformar a la población y fomentar la guerra de la desinformación.

Este escenario podría llevar a un país democrático a una situación de emergencia, ya que la difusión de noticias falsas generadas con inteligencia artificial podría distorsionar gravemente la percepción de la realidad entre la población. Esto podría provocar reacciones adversas, llegando incluso a situaciones de golpes de Estado blandos. En la era actual, las redes sociales tienen un alcance mucho mayor que la televisión y otros medios tradicionales, lo que las convierte en potentes plataformas de desinformación capaces de desencadenar crisis y conflictos internos en un país”.

Efectividad de las sanciones

La aplicación de la ley en el contexto digital plantea desafíos significativos, especialmente en escenarios electorales donde candidatos compiten. En esta situación, personas ajenas a los candidatos pueden crear y distribuir contenido utilizando bots automatizados. Si los candidatos no tienen participación en la creación de este contenido, no deberían ser sancionados por acciones que no llevaron a cabo. Sin embargo, una mala aplicación de la ley podría exponer a los candidatos a ser falsamente acusados por contenido generado artificialmente, lo que podría resultar en multas o incluso prisión injustas. Esta situación podría ser aprovechada por adversarios políticos para neutralizar a un candidato de forma injusta.

Por tanto, es crucial diseñar leyes con cuidado, considerando su alcance y condiciones de aplicación, especialmente en un entorno donde el anonimato en internet puede dificultar la identificación de los responsables reales. Es importante evitar que la ley sea utilizada de manera selectiva para perjudicar a un candidato en beneficio propio. En casos donde un candidato distribuya contenido falso de manera consciente, su responsabilidad como delincuente es clara. Sin embargo, cuando un tercero difunde dicho contenido en redes sociales, surge la complejidad de determinar quién es el responsable y cómo aplicar la ley de manera justa.

Además, es fundamental que las empresas que utilizan inteligencia artificial marquen claramente el contenido alterado con una marca de agua, indicando que ha sido generado artificialmente. De esta manera, se brinda información transparente a las personas sobre la naturaleza subjetiva de dicho contenido, permitiéndoles discernir entre lo real y lo alterado. Esta acción contribuirá a mantener a la sociedad informada y prevenir la desinformación”.

Una ley nacional de inteligencia artificial como en el caso chino

”Sí, me parece muy acertado. También la Unión Europea ha establecido un marco legal para regular el uso de inteligencia artificial, definiendo niveles de aceptabilidad en su aplicación y protegiendo los derechos universales de las personas. Uno de estos derechos es el de no discriminación y clasificación social. En la actualidad, los algoritmos de inteligencia artificial pueden categorizar a las personas según su estatus demográfico y socioeconómico, lo que podría resultar en discriminación social y afectar injustamente el acceso a una mejor calidad de vida.

Por ejemplo, al solicitar un seguro de vida o de propiedades, los actuarios suelen calcular el riesgo basándose en características demográficas y socioeconómicas. Sin embargo, la inteligencia artificial puede utilizar conjuntos de datos más amplios para clasificar a las personas social y racialmente, generando puntuaciones engañosas que podrían impactar negativamente en la tarifa a pagar. Este tipo de discriminación social vulnera la calidad de vida de las personas, ya que pueden enfrentar costos más elevados debido a su clasificación errónea.

De acuerdo con la legislación de la Unión Europea, está estrictamente prohibida la clasificación social, dado que afecta directamente la calidad de vida de los individuos. En la actualidad, se enfatiza la protección de la calidad de vida de las personas, en consonancia con los principios de responsabilidad social y desarrollo sustentable, tanto en términos ambientales como sociales”.

Avances en Australia

”Si lo vemos desde una perspectiva geopolítica, Australia destaca como un actor importante e influyente en la región de Australasia. Desde el punto de vista militar, cuenta con una infraestructura mucho más robusta en comparación con Nueva Zelanda. Además, Australia ha tomado medidas significativas en ciberdefensa y ha establecido marcos legales sólidos debido a los ataques cibernéticos recibidos por grupos nacionalistas de China, como los APT (Amenazas Persistentes Avanzadas).

En este sentido, Australia se sitúa en un nivel más avanzado, equiparándose con países como Estados Unidos y Inglaterra en materia de ciberseguridad y regulación de la inteligencia artificial”.

Por equipo Asia Pacífico: asiapacifico@bcn.cl


Comentarios

NOTA: como parte de su misión de promover el debate informado, respetuoso, tolerante e inclusivo, que permita vincular la labor de nuestro Congreso Nacional con la ciudadanía, la BCN se reserva el derecho de omitir comentarios y opiniones que pudieren afectar el respeto a la dignidad de las personas o instituciones, en pos de una sana convivencia democrática.

Videos AP

Selección de videos sobre Asia Pacífico