Institucional

Estándares interamericanos y uso estatal de la IA en decisiones que afecten derechos humanos. Implicaciones para los DDHH y marco operativo

El informe de la Electronic Frontier Foundation, elaborado por Veridiana Alimonti y Rafaela Cavalcanti de Alcântara, analiza el uso estatal de sistemas algorítmicos en decisiones que afectan derechos humanos a partir de los estándares del Sistema Interamericano, y desarrolla implicaciones y un marco operativo para su aplicación en los Estados de América Latina.

El documento examina el uso de sistemas algorítmicos y de inteligencia artificial por parte de las instituciones públicas para respaldar decisiones que afectan a la vida de las personas, destacando los desafíos que estos sistemas plantean para la gobernanza democrática y la legitimidad de la toma de decisiones. Señala que la falta de transparencia significativa y de participación social en su desarrollo, adquisición e implementación constituye un factor central de preocupación.

El informe observa que los Estados de América Latina han desplegado cada vez más sistemas de inteligencia artificial y de toma de decisiones automatizada para funciones como la aplicación de la ley, el bienestar social y otros ámbitos gubernamentales, muchas veces con insuficientes salvaguardas legales, capacidad institucional y supervisión social significativa.

En este contexto, el documento se basa en los estándares interamericanos de derechos humanos para concebir implicaciones y un marco operativo que permita su debida consideración en el uso estatal de estos sistemas. La investigación se apoya en informes de la Comisión Interamericana de Derechos Humanos y en decisiones y opiniones consultivas de la Corte Interamericana.

El informe delimita su ámbito en el uso estatal o gubernamental de sistemas algorítmicos —incluyendo todos los poderes del Estado y niveles de la administración pública— y en aquellas determinaciones que pueden afectar el reconocimiento, disfrute o ejercicio de los derechos humanos y las libertades fundamentales. Estas decisiones pueden incluir predicciones, recomendaciones, clasificación y decisiones automatizadas.

Asimismo, identifica preocupaciones de base vinculadas a la opacidad, las asimetrías de información y la falta de procesos y estructuras capaces de garantizar la protección de los derechos humanos en todas las fases de aplicación de estos sistemas, desde su adopción hasta la evaluación de sus repercusiones.

Finalmente, el informe sistematiza obligaciones de los Estados en el marco de la Convención Americana, incluyendo el deber de respetar y garantizar derechos, prevenir violaciones, proporcionar recursos efectivos y adoptar medidas legales e institucionales adecuadas. A partir de ello, establece principios, implicaciones y un marco operativo orientado a la aplicación de estos estándares en el uso estatal de la inteligencia artificial.

 

Archivo en PDF

  • 28-04-2026