- A nivel global, 193 países han adoptado un acuerdo histórico que define los valores y principios comunes necesarios para garantizar el desarrollo saludable de la IA.
- De acuerdo con Alejandro Herrera, abogado, profesor en la Universidad Cenfotec y especialista en Ciencia de Datos, en el caso de una futura regulación nacional en la IA, el modelo europeo es el ejemplo ideal.
San José, Costa Rica, octubre de 2023. La Inteligencia Artificial (IA) está transformando rápidamente el panorama social, económico y educativo a nivel mundial, y Costa Rica no es la excepción.
La Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura (UNESCO) ha instado a los gobiernos a regular el uso de la IA generativa en la educación y la investigación, incluyendo límites de edad para los usuarios.
Por ejemplo, la entidad ha emitido directrices que sugieren pasos inmediatos para garantizar una visión centrada en el ser humano para el uso de nuevas tecnologías. Esto incluye la protección de la privacidad de los datos y la consideración de un límite de edad de 13 años para su uso en el aula.
A nivel global, 193 países han adoptado un acuerdo histórico que define los valores y principios comunes necesarios para garantizar el desarrollo saludable de la IA. Sin embargo, muy pocos países tienen políticas en vigor para garantizar el uso seguro y ético de las herramientas de IA.
De acuerdo con Alejandro Herrera, abogado, profesor en la Universidad Cenfotec y especialista en Ciencia de Datos, en el caso de Europa, recientemente se aprobó el reglamento que regula el tema de Inteligencia Artificial con un enfoque que busca el equilibrio entre mantener la vía a la innovación; prohíbe ciertos usos de la tecnología (como el manipular conductas de población vulnerable); y se enfoca en la regulación de los sistemas de alto riesgo, que son aquellos que pueden tener una gran afectación en la seguridad y en la vida de las personas (van desde sistemas que intervienen en infraestructura crítica de un país a sistemas para otorgamiento de derechos a las personas como servicios públicos o trabajo, por ejemplo).
“Los países están generando estructuras para regular el desarrollo de la IA. Por ejemplo, España creó una agencia para regular esta tecnología. También, mediante medidas administrativas o judiciales, se está regulando e inclusive limitando el uso general de ciertos datos personales para entrenar modelos de IA. El reglamento de Europa, puede ser un modelo interesante de regulación moderada que puede servir para una industria incipiente como la que existe en Latinoamérica”, dijo Herrera.
En Costa Rica, los legisladores están impulsando una regulación motivada por el Acta de IA de la Unión Europea. Este acto incluye reglas que prohíben el uso de la tecnología en la vigilancia biométrica y exige que sea claro qué contenido es generado por IA.
“En el caso de una futura regulación nacional en la IA, mi deseo es que el país siga el ejemplo de Europa, inclusive más limitado, con una visión realista, no se va a poder regular todo, no alcanzan los recursos públicos para abarcar todo, entonces prioricemos que debemos regular. Creo que el punto que se debe gestionar es el uso de IA en la prestación de servicios públicos”, afirmó Herrera.