El gobierno prepara mecanismos para medir el impacto social de los algoritmos | La tecnologia

El gobierno prepara mecanismos para medir el impacto social de los algoritmos |  La tecnologia

Los algoritmos están afectando cada vez más áreas de nuestra vida. Y, a veces, dañan a los ciudadanos. El gobierno ha decidido actuar: ha puesto en marcha una batería de medidas destinadas a analizar el impacto social de los sistemas de inteligencia artificial (IA) antes de que entren en funcionamiento. Con este objetivo en mente, y para apurar los cambios con más impulso, España se ha ofrecido a ser el conejillo de indias del proyecto de reglamento de IA presentado por la Comisión Europea, que se espera que entre en vigor en 2023.

La prueba piloto implicaría adelantar un año la implementación de la regulación, hasta 2022. Y eso implicaría evaluar el riesgo que supone la aplicación de cada algoritmo (reconocimiento facial o sistemas de puntuación, por ejemplo). Ejemplo, se consideran de alto riesgo y por lo tanto están prohibidas con ciertas excepciones) y preparan mecanismos de auditoría para asegurar que no discriminen por motivos de raza, sexo o ingresos (lo que se denomina sesgos algorítmicos).

España sería el único país que avanzaría en la aplicación de esta normativa europea. Con este movimiento, el gobierno pretende colocar al país a la vanguardia de esta importante regulación y acelerar «los cambios que tarde o temprano tendrán que ocurrir», según fuentes de la Secretaría de Estado de Digitalización e Inteligencia Artificial (Sedia): análisis, definición de estándares, desarrollo de procedimientos de actuación, etc. Estas mismas fuentes confirman que el acuerdo entre el Gobierno y la Comisión Europea está muy avanzado. Si no hay contratiempo, se anunciará cuando regrese de las vacaciones.

La aplicación anticipada del proyecto de reglamento europeo no implicaría obligaciones legales adicionales para las empresas que operan los algoritmos a monitorear. El sector, de hecho, acogió con satisfacción la iniciativa y se ofreció a colaborar si fuera necesario con Sedia, dependiente del Ministerio de Economía y Transformación Digital que encabeza la vicepresidenta primera Nadia Calviño. La idea del gobierno es crear un cajón de arena o banco de pruebas en un entorno seguro similar al ya desarrollado para fintech.

Evaluación de riesgos

Tanto la estrategia nacional de inteligencia artificial, presentada a finales del año pasado, como el reglamento europeo sobre IA consideran la figura de la auditoría algorítmica como uno de los pilares del sistema de evaluación de riesgos.

El gobierno aún no sabe qué organismo se encargará de realizar estas auditorías en España. «No hemos llegado a esta discusión», señalan a la secretaria de Estado que encabeza Carme Artigas. Una opción sería crear una oficina independiente, como ya ocurre en el ámbito de la privacidad con la Agencia Española de Protección de Datos (AEPD).

Antes de llegar, y para preparar el terreno, se acaba de poner en marcha el Observatorio del impacto social de los algoritmos (Obisal). A su vez, dependiente del Observatorio Nacional de Tecnología y Sociedad (Ontsi), esta entidad será la encargada de desarrollar los puntos de referencia que se utilizarán en las auditorías. Actualmente, El Obisal está contratando expertos y creando grupos de trabajo sectoriales para analizar los sistemas de IA. “Los algoritmos no son sectoriales, pero su impacto sí”, señalan desde Sedia.

Este observatorio producirá informes que arrojarán luz sobre una metodología específica para auditorías algorítmicas el próximo año. También ayudará un registro de algoritmos del sector público promovido por la propia Secretaría de Estado. El objetivo, según fuentes gubernamentales, es que este proceso de evaluación del impacto social de los sistemas pueda materializarse en una especie de etiqueta de calidad para los algoritmos. «Todo este trabajo prepara el escenario para 10 o 15 años», dicen desde Sedia.

Puedes seguir a EL PAÍS TECNOLOGÍA en FacebookGorjeo o suscríbete aquí para recibir nuestro boletín semanal.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *