Desde IA Ciudadana, coalición de 16 organizaciones sociales liderando en España la
respuesta social a las políticas de regulación e implementación de la inteligencia artificial, expresamos nuestro profundo compromiso en velar por la protección de los derechos humanos y la justicia social en la era digital.
En tal sentido, reconocemos la importancia de las tecnologías, pero insistimos en que su desarrollo e implementación deben respetar los derechos y libertades fundamentales de todas las personas.
En el caso particular de España, es de destacar que se ha querido posicionar como referente de la inteligencia artificial, para lo cual ha tomado una serie de medidas, como la puesta en marcha de la primera Agencia de Supervisión de la Inteligencia Artificial (AESIA) y la creación de un entorno de pruebas (sandboxes) para analizar la aplicación del futuro Reglamento de Inteligencia Artificial (Reglamento de IA).
Por ello, en el contexto particular de la presidencia española del Consejo de la UE y su papel clave para negociar el texto final de la regulación europea de la IA, instamos a los reguladores a proteger y fomentar los derechos humanos en el contexto de la inteligencia artificial y reafirmamos nuestro compromiso de trabajar junto con las autoridades y otros actores relevantes en lograr que la regulación de la IA así lo garantice. Para ello, consideramos prioritario los siguientes puntos:
La sociedad civil debe participar en la definición de las políticas de inteligencia artificial
La transparencia y la participación son requisitos básicos en toda democracia. Para ello, es indispensable que la ciudadanía disponga de información accesible y transparente acerca de las funciones, agendas y mecanismos de participación en los organismos responsables de regular y controlar la aplicación de la inteligencia artificial.
El conjunto de la ciudadanía tiene derecho a participar de los asuntos públicos que, como los sistemas de IA, tienen y tendrán impacto en sus vidas, sus derechos y sus oportunidades. La participación pública efectiva y en plena diversidad permite decisiones más equitativas y con mayor legitimidad democrática.
La determinación del nivel de riesgo de un sistema de IA no puede quedar en manos de las grandes empresas que la desarrollan
El proyecto de Reglamento de IA adopta un enfoque de riesgo y establece obligaciones específicas para los sistemas de IA que suponen un “alto riesgo” (enumerando sus casos de uso en el Anexo III), entre las que destacamos: la necesidad de implementar la supervisión humana, realizar evaluación de riesgos y tomar medidas de mitigación. De otra manera: la mayoría de las obligaciones que prevé el Reglamento recaen sobre estos sistemas de alto riesgo. Sin embargo, las grandes tecnológicas («big tech») han logrado introducir una vía de escape a esta categoría y modificar el texto para que sean las propias empresas las que
autoevalúen si su sistema es de «alto riesgo».
Desde IA Ciudadana instamos a los y las legisladoras a eliminar la discrecionalidad en la clasificación de sistemas de alto riesgo y que, por ende, todos los sistemas listados en el Anexo III del Reglamento se consideren como de alto riesgo. No puede ser el lobo quien decida si quiere cuidar de las gallinas.
Sin los requerimientos necesarios, la inteligencia artificial puede poner en peligro
derechos fundamentales a nivel global
La regulación europea será pionera en el mundo y, por ello, Europa tiene la oportunidad de producir una norma que asegure la más alta protección de los derechos fundamentales de la población y de los valores democráticos. La única forma de garantizar el desarrollo e implementación responsable y respetuosa de los sistemas de IA de alto riesgo será requiriendo la realización de un estudio de impacto sobre derechos fundamentales de forma previa a que estos sistemas se pongan en marcha. Este estudio deberá llevarse a cabo garantizando la debida participación de los grupos afectados y sus resultados deberán ser públicos. Sólo de esta forma se logrará que las tecnologías de IA respeten, promuevan y protejan los derechos fundamentales.
No debemos afrontar problemas sociales con respuestas meramente tecnológicas
A día de hoy, en la sociedad digital, tenemos sobrada evidencia de que el tecnosolucionismo que ofrecen las «big tech» no funciona: tratar de resolver problemas sociales complejos con herramientas tecnológicas, sin incluir en su diseño y evaluación a expertas multidisciplinares así como a los grupos sociales a los que afectan, agrava la desigualdad y la injusticia social.
Más allá de eso, hay sistemas que directamente no pueden ser admitidos en un estado social y democrático de derecho. Son especialmente preocupantes la identificación biométrica remota en el espacio público, los sistemas para realizar perfiles o evaluaciones de riesgo con el fin de predecir delitos, los sistemas de evaluación y perfilado en el contexto de la migración, el reconocimiento de emociones y el uso de IA que pueda manipular a personas en contextos
de vulnerabilidad. Desde IA Ciudadana pedimos que se prohíban, puesto que su uso se opone a derechos y libertades fundamentales básicos, entre los que se pueden mencionar: el derecho a la privacidad, a la libertad de expresión y asociación, y a la no discriminación.
Qué es IA Ciudadana
Una coalición de 16 organizaciones sociales que trabajan para proteger los Derechos
Humanos en procesos de sistemas basado en inteligencia artificial y automatización de decisiones desde un enfoque de democracia participativa. Nuestro objetivo es que se amplíen los espacios de participación de la sociedad en los procesos de regulación de la IA y la gobernanza algorítmica, para asegurar una tecnología IA que respete los derechos humanos y promueva la justicia social.