Justicia y Paz reclama al Parlamento Europeo que la ley de inteligencia artificial proteja los derechos de las personas

La organización se ha sumado a una declaración conjunta con otros 122 miembros de la sociedad civil

inteligencia artificial

La Comisión General de Justicia y Paz ha firmado una declaración junto a 122 organizaciones de la sociedad civil en las que, con motivo del debate en el Parlamento Europeo sobre la Ley de Inteligencia Artificial, el organismo supranacional “garantice que este Reglamento es un vehículo para la promoción de los derechos fundamentales y la justicia social”.



“La Ley de Inteligencia Artificial de la Unión Europea puede, y debe, abordar estas cuestiones, garantizando que el desarrollo y el uso de la inteligencia artificial se realicen en un marco de responsabilidad, transparencia y limitaciones adecuadas basadas en los derechos fundamentales”, señala Justicia y Paz. Por ello, ha pedido a los miembros del Parlamento Europeo que garanticen lo siguiente en la votación de la Ley de IA:

Capacitar a las personas afectadas por los sistemas de IA

En primer lugar, Justicia y Paz la declaración exige que se “garantizar requisitos de accesibilidad horizontales e integrados para todos los sistemas de IA”, así como que “las personas afectadas por los sistemas de IA sean notificadas y tengan derecho a buscar información cuando se vean afectadas por decisiones y resultados asistidos por IA”.

Asimismo, pide “incluir en derecho de las personas afectadas a presentar una denuncia ante una autoridad nacional, si se han violado sus derechos por el uso de un sistema de IA”, además de “el derecho a la representación de las personas físicas y el derecho de las organizaciones de interés público a presentar reclamaciones independientes ante una autoridad nacional de supervisión” y el derecho “a recursos efectivos en caso de vulneración de derechos”.

Garantizar la rendición de cuentas y la transparencia en el uso de la IA

La declaración subraya la importancia de “incluir la obligación de que los usuarios realicen y publiquen una evaluación de impacto de derechos fundamentales antes de desplegar un sistema de IA de alto riesgo e implicar de manera significativa a sociedad civil y a las personas afectadas en este proceso”, y de “exigir a todos los usuarios de sistemas de IA de alto riesgo y a los usuarios de todos los sistemas en la esfera pública, que registren el uso del sistema en la base de datos europea de IA antes de su despliegue”.

Por otro lado, se exige que quede garantizado “el proceso de clasificación de los sistemas de IA de alto riesgo dé prioridad a la seguridad jurídica y no ofrezca a los proveedores ninguna laguna legal”, así como que “los proveedores de IA con sede en la UE cuyos sistemas afecten a personas de fuera de la UE estén sujetos a los mismos requisitos que los de dentro de la UE”.

Prohibir los sistemas de IA que supongan un riesgo para los derechos fundamentales

Justicia y Paz apoya, de esta manera, que se prohiba totalmente “la identificación biométrica remota y en tiempo real en espacios de acceso público, por parte de todos los actores, sin excepción”. Piden, además, la prohibición “de todas las formas de sistemas predictivos y de elaboración de perfiles en la aplicación de la ley y la justicia penal”.

Por otro lado, Justicia y Paz pide que se prohiba la en contextos migratorios “para realizar evaluaciones y perfiles de riesgo individuales, basados en datos personales y sensibles, y sistemas de análisis predictivo cuando se utilicen para interceptar, restringir e impedir la migración”, así como “los sistemas de categorización biométrica que clasifican a las personas físicas en función de atributos sensibles o protegidos, así como el uso de cualquier sistema de categorización biométrica y de detección automática de comportamientos en espacios de acceso público”. Por último, la declaración subraya que es necesario prohibir “el uso de sistemas de reconocimiento de emociones para inferir las alteraciones y los estados mentales de las personas a partir de datos físicos, fisiológicos, conductuales y biométricos”.

Noticias relacionadas
Compartir