El avance de las tecnologías digitales está sacudiendo nuestras sociedades. El uso de sistemas basados en inteligencia artificial o la automatización de decisiones pueden tener un impacto social positivo, pero la evidencia nos enseña que también pueden vulnerar derechos fundamentales y potenciar la desigualdad en una sociedad imperfecta como la nuestra.
Los algoritmos son una realidad cotidiana en nuestro día a día, aunque no siempre seamos conscientes de ello. Prácticamente todos los servicios digitales que usamos tienen un grado u otro de aplicación de inteligencia artificial. Deciden qué ofertas de trabajo se nos ofrecen, qué ruta debemos tomar para llegar a nuestro destino, qué información aparece en nuestras redes sociales… Estas aplicaciones nos pueden parecer inocuas e incluso podemos pensar que mejoran la interacción y la experiencia con los servicios que usamos, pero hay casos en los que las decisiones que toman pueden vulnerar nuestros derechos y dejarnos en un estado de desprotección e inferioridad.
Son variados los casos que muestran que los procesos automatizados corren el peligro de replicar y amplificar las opresiones y dinámicas de poder de nuestras sociedades. Muchos de los ejemplos más conocidos provienen del mundo anglosajón, pero si ponemos la lupa en nuestro país veremos que no somos inmunes a esta problemática. En España tenemos el programa Bosco, usado por el Gobierno para otorgar el bono social eléctrico. La organización CIVIO denunció que se estaban negando ayudas a personas que tenían el derecho de recibirlas y llevó el caso ante el Consejo de Transparencia. Se le negó el acceso al código fuente del algoritmo, ya que se alegaron razones de protección intelectual. Esta opacidad se repite en otros algoritmos que operan en nuestra sociedad, como Veripol, el algoritmo de la policía para identificar denuncias falsas, o VioGén, que valora el riesgo de agresiones reincidentes a víctimas de violencia de género. Es muy relevante para asegurar que no se vulneran derechos que se analicen estos sistemas en auditorías y se publiquen sus resultados en pro de la transparencia y la rendición de cuentas.
Como ciudadanía, estamos asistiendo al despliegue de tecnologías que influyen e impactan directamente en nuestros derechos y obligaciones, pero a la vez se nos niega la información y el acceso al conocimiento necesario para entender y pensar críticamente sobre estos sistemas sociotécnicos. Los algoritmos permanecen como cajas negras de las que no podemos conocer sus entresijos para reclamar una mejor y más ética automatización, desde su conceptualización y diseño hasta su implementación. Se debate en altas esferas acerca de la ética y los sesgos pero raramente se incluye a la sociedad civil en esos foros. Las respuestas a las problemáticas generadas por las decisiones automatizadas se suelen dar desde una perspectiva técnica que no tiene presente los problemas estructurales de la sociedad que los causan. Se otorga gran poder a las empresas propietarias de las tecnologías y se consiente la opacidad dificultando la transparencia.
Es por ese motivo que organizaciones estatales e internacionales están empezando a alzar la voz. Es también el motivo por el cual hemos decidido crear Algorights. Inspiradas por movimientos como La Liga de la Justicia Algorítmica, el movimiento Reclaim Your Face, Mijente o Derechos Digitales, creamos una comunidad que aboga por la reflexión, comunicación y empoderamiento de la sociedad civil en la defensa de sus derechos en el ámbito de la inteligencia artificial.
La automatización de decisiones o sistemas basados en IA se fundamenta en una base tecnológica, pero también social. Si no queremos que las estructuras de desigualdad existentes en nuestra sociedad se refuercen, debemos incorporar a personas expertas en ciencias sociales y defensoras de los Derechos Humanos en el diseño, desarollo, implementación y evaluación de sistemas IA. Por ese motivo consideramos que es necesario regular y poner todos los mecanismos necesarios para asegurar que funcionan bien desde una perspectiva de justicia social. Y para ello tenemos un marco de referencia consensuado internacionalmente: los Derechos Humanos.
Creemos que para conseguirlo reclamamos la necesidad de asegurar que la ciudadanía participa en los procesos de diseño, seguimiento y evaluación de políticas relacionadas con el despliegue de tecnologías digitales. Queremos sociedades más justas para todas las personas y para ello fomentamos la participación.
Esta participación debe realizarse mediante conocimiento básico sobre el impacto de la IA, así que, más allá de la alfabetización técnica, consideramos necesario concienciar a la población y promover el acercamiento crítico a los algoritmos.
Desde Algorights queremos garantizar que el diseño, desarrollo y aplicación de la inteligencia artificial respeten la Carta de los Derechos Humanos. Queremos unas políticas digitales centradas en las personas para una sociedad digital más justa. Y esa es nuestra misión.