Ante ciberamenazas

Ley de IA en la Unión Europea llama a legislar con urgencia en LATAM



Dirección copiada

Expertos abordan el uso de la Inteligencia Artificial y los debates sobre su regulación. Las limitaciones respecto al uso de esta tecnología y los debates sobre sus riesgos son algunos de los temas que analizan los especialistas.

Publicado el 29 feb 2024



Ley IA Latam

La irrupción de la IA está cambiando el rumbo de diversos sectores productivos. Sin embargo, su lado vulnerable se releja en delitos financieros, usurpación de identidad y aspectos relacionados con la propiedad intelectual, lo que ha motivado a legislar sobre sus alcances.

IA Act: Importancia de replicar esta Ley en Latam

La Unión Europea (UE) marcó un hito histórico en diciembre de 2023, al consensuar la primera Ley de Inteligencia Artificial (IA), conocida como “IA Act”, la cual se estima entre en vigencia a fines de 2026.

Una vez implementada esta Ley u otras que podrían ser promulgadas próximamente en otros países, surge la pregunta sobre si los gobiernos lograrán controlar y regular lo que, precisamente, se busca en cuanto a la prevención de los efectos asociados a la IA.

“Las burocracias gubernamentales no están preparadas hoy para hacerle frente al acelerado desarrollo de la IA. Los gobiernos deberían legislar con mayor premura frente a la velocidad a la que estábamos acostumbrados hace 10 años. La idea es poder adelantarnos a los posibles peligros que conlleva el mal uso de esta tecnología, permitiendo la aprobación de leyes cortas mucho más rápidas que lo que actualmente demoran en ser aprobadas. En este sentido, las instituciones gubernamentales deben tomar un rol preventivo y no reactivo frente a los avances de esta herramienta y el uso ético de la misma”, indica Federico dos Reis, CEO de INFORM Latam.

IA Generativa

Uno de los aspectos discutidos en el marco de la conformación de esta Ley de Inteligencia Artificial (IA) en la UE fue la importancia de los sistemas de inteligencia artificial generativa, en los que se basan modelos como ChatGPT, para los cuales se dictaron reglas específicas para garantizar la transparencia y la gestión de riesgos.

En esta línea, los usuarios tendrán que cumplir criterios de transparencia, como especificar si un texto, una canción o una fotografía fueron creados por IA, y también obligaciones más estrictas para los modelos de “alto impacto”, como evaluaciones de riesgos y garantías de ciberseguridad, entre otros factores.

Para las Naciones Unidas, entre los efectos negativos de la IA se encuentran la desinformación y la información falsa, el afianzamiento del sesgo y la discriminación, la vigilancia y la invasión de la privacidad, el fraude y otras violaciones de los derechos humanos, lo que incluso podría desestabilizar las democracias.

Objetivos comunes

Es por eso que surge como un desafío poner en marcha un consenso sobre la regulación, que guíe el desarrollo y la implementación de la IA en relación con los “Objetivos Globales” establecidos por el organismo internacional. Aunque países como China y Estados Unidos ya están regulando el uso de la IA, para dos Reis “el desafío es que ya tenemos que empezar a alinearnos no a nivel regional, sino global, ya que es una temática que impacta a la humanidad como un todo, por lo que es primordial ser ágiles y tener directrices claras en el uso y alcance de la IA. En INFORM, por ejemplo, promovemos un enfoque transparente y responsable de esta revolucionaria herramienta tecnológica, donde la última decisión siempre la tienen las personas, pudiendo en cualquier momento obviar una sugerencia o propuesta realizada por el sistema”.

Artículos relacionados

Artículo 1 de 3