Colegio Bautista -TEMUCO - Región de La Araucanía


Título iniciativa:

Ley sobre Tipificación y Penalización por Uso Malicioso de Inteligencia Artificial (IA)



Definición alternativa:

Definición alternativa:

En los últimos años, la Inteligencia Artificial (IA) ha adquirido un papel central en la medida que se ha convertido en una tecnología de amplio alcance y aplicación gracias a su capacidad para procesar grandes volúmenes de datos, realizar análisis complejos, automatizar tareas y tomar decisiones, lo cual ha transformado la forma en que trabajamos y vivimos.

La OCDE (2019) la define como un sistema computacional que puede, para un conjunto específico de objetivos definidos por humanos, hacer predicciones, recomendaciones, o tomar decisiones que influyen en entornos reales o virtuales. Considerando lo anterior, se entenderá por IA el conjunto de técnicas informáticas que capacitan a una máquina, como un ordenador o un teléfono, para llevar a cabo tareas que normalmente requieren inteligencia humana, como el razonamiento, el aprendizaje y la toma de decisiones, caracterizándose a su vez por su capacidad de hacer predicciones y recomendaciones, así como influir en entornos reales o virtuales, con el propósito de cumplir un conjunto específico de objetivos establecidos por los seres humanos.

El desarrollo desmesurado de la Inteligencia Artificial ha traído y traerá consigo secuelas negativas en una serie de ámbitos, que son necesarios regular lo antes posible. La Política Nacional de Inteligencia Artificial vigente desde el 2021, incorpora un marco general para orientar el quehacer estatal respecto a esta nueva tecnología, mas no especifica las figuras de uso malicioso de IA y su consiguiente penalización. Por lo expuesto, estas directrices se han vuelto insuficientes para abordar las diversas contingencias que derivan del creciente avance de estas tecnologías. Entre los posibles riesgos que presenta el mal uso de estas nuevas tecnologías se distinguen principalmente dos:

(1) Riesgos en el ámbito laboral.
(2) Riesgos de seguridad cibernética, estatal y social.

Aunque bien se ha visto que la IA puede resultar tremendamente beneficiosa como herramienta productiva y de uso personal, no se ha de olvidar que el mercado del trabajo puede verse profundamente afectado por la automatización acelerada de todas las áreas productivas en las que pueda actuar la IA (Eloundou et al., 2023). Del mismo modo, diversas investigaciones han estimado que la IA ocasionará una disrupción en el mercado laboral de 300 millones de puestos (Hatzius et al., 2023).

No obstante, como bien se precisó en una primera instancia, vetar el uso de la IA en su totalidad impediría que pudiéramos aprovechar los múltiples beneficios que ella trae consigo, e incluso, truncaría la creación de nuevos empleos vinculados a las Tecnologías de la Información (IT). Por lo mismo, se enfatiza en la necesidad de crear regulaciones en torno a la restricción del empleo de la IA, en lugar de prohibiciones, a fin de incrementar la productividad nacional sin que esto vaya en detrimento del bienestar social.

Respecto a los riesgos inherentes a la seguridad cibernética, la estabilidad estatal y el tejido social, resulta imperativo abordar de manera efectiva la regulación del uso de la IA. Uno de los peligros más evidentes reside en la proliferación de los llamados "Deep Fakes", contenidos audiovisuales generados mediante el empleo de tecnologías como la "Voice AI" (un programa computacional capaz de clonar voces utilizando IA). Estos Deep Fakes se caracterizan por manipular la imagen de figuras políticas relevantes, como presidentes, diputados, senadores, entre otros, creando la ilusión de que expresan opiniones o realizan afirmaciones completamente ficticias.

En definitiva, lo que se busca en esta propuesta, es el resguardo de la seguridad laboral y social, al igual que la privacidad de nuestras figuras políticas y de cada uno de los integrantes de nuestra sociedad. Dado lo susodicho, se hace imperiosa la creación de una ley que regule la creación y control de estas nuevas tecnologías basadas en IA, ello por el riesgo que éstas pudieren ocasionar hacia nuestro futuro como nación. Téngase por soporte regulatorio para la creación de dicha ley una moción parlamentaria, dado que dicho soporte permitiría generar un debate dentro del Congreso en torno a la regulación de la Inteligencia Artificial.


Propuesta legislativa:

Propuesta legislativa:

Artículo 1°:

1. El que creare contenido audiovisual con programas tales como: DeepFaceLab, Reface, FaceApp, FakeYou, Uberduck, Voice.ai, Murf, Wombo, u otras semejantes o análogas, con el propósito de socavar la imagen o integridad pública de una persona natural o jurídica, mediante la falsificación de enunciaciones, incurrirá en el delito de Uso Malicioso de IA, cuya sanción será la imposición de una multa que va entre las 10 UTM a 200 UTM. Asimismo, se hará la distinción para aplicar la sanción entre infractores que sean personas naturales o personas jurídicas y funcionarios públicos o servicios públicos.

a) Conjugando lo anteriormente expuesto, la sanción se verá agravada en el caso de tergiversar dichos de autoridades públicas.

2. Créase un Registro Público de Infractores de IA, el que deberá ser consultado en forma obligatoria por las entidades públicas pertinentes en los casos de contratación de personal.

3. Facúltese al Ministerio del Interior, en coordinación con la Subsecretaría del Interior en la Unidad de Ciberseguridad para velar por el fiel cumplimiento de la normativa regulada en el presente artículo.


Artículo 2°:

1. Créase una Comisión Nacional Reguladora de Inteligencia Artificial, la que dependerá del Ministerio de Ciencia, Tecnología, Conocimiento e Innovación, con facultades de pronunciarse sobre la factibilidad de la incorporación de diferentes IA’s al mercado laboral considerando —según su orden de importancia— las variables de: Bienestar social; Protección de la mano de obra; Beneficios al consumidor; Productividad.

a) Lo señalado anteriormente es sin perjuicio de la utilización de los resguardos e instrumentos en el ámbito laboral que actualmente la normativa vigente otorga a los trabajadores.

b) Las sanciones por incorporación arbitraria y no regulada de la IA en los procesos productivos irán entre 100 a 800 UTM mensuales, según su grado de vulneración a los criterios previamente establecidos.

Referencias iniciativa:

Bibliografía

Belinchón, F. (2023, mayo 3). La revolución de la inteligencia artificial y ChatGPT en el empleo: Uno de cada cuatro trabajos están en el punto de mira. Cinco Días. https://cincodias.elpais.com/economia/2023-05-03/la-revolucion-de-la-inteligencia-artificial-y-chatgpt-en-el-empleo-uno-de-cada-cuatro-trabajos-estan-en-el-punto-de-mira.html

Eloundou, T., Manning, S., Mishkin, P., & Rock, D. (2023). Gpts are gpts: An early look at the labor market impact potential of large language models. https://doi.org/10.48550/ARXIV.2303.10130

Hatzius, J., Briggs, J., Kodnani, D., & Pierdomenico, G. (2023). The Potentially Large Effects of Artificial Intelligence on Economic Growth. Goldman Sachs. https://www.gspublishing.com/content/research/en/reports/2023/03/27/d64e052b-0f6e-45d7-967b-d7be35fabd16.html

Ministerio de Ciencia, Tecnología, Conocimiento e Innovación. (2020) Borrador de Política Nacional de Inteligencia Artificial. https://www.minciencia.gob.cl/legacy-files/borrador_politica_nacional_de_ia.pdf

Organización para la Cooperación y Desarrollo Económico. (2019). Artificial Intelligence in Society. OECD Publishing. https://doi.org/10.1787/eedfee77-en