Enfoque Mental: Clave Para IA Justa en la Justicia Penal

Elena Digital López

La inteligencia artificial (IA) está siendo discutida en casi todos los sectores hoy en día, incluyendo el ámbito legal. La IA promete eficiencia y objetividad, cualidades muy necesarias en el sistema de justicia, pero también existen historias de terror como los casos de sesgo racial contra acusados criminales e incluso la detención errónea de personas inocentes.

La causa raíz de estos problemas suele estar en los sesgos inherentes a los algoritmos que impulsan los sistemas de IA. Sin embargo, el problema va más allá de la tecnología: también involucra los datos con los que se entrenan estos sistemas, los objetivos que se establecen, la aplicación de estos objetivos y cómo interpretamos los resultados. No es solo cuestión de tecnología, sino de nosotros mismos.

Aquí entra en juego la Tecnología de Interés Público (Public Interest Technology, PIT), que podemos considerar como una mentalidad esencial enfocada en seleccionar, implementar y evaluar sistemas de IA de manera justa, equitativa y centrada en el ser humano. Es un enfoque que se centra en las decisiones más importantes cuando se trata de proteger a las personas de los daños reales derivados del sesgo y la discriminación.

La Tecnología de Interés Público puede actuar como un marco orientador que apoya el desarrollo, implementación y gobernanza de la IA en el sistema de justicia penal para garantizar la equidad, transparencia y responsabilidad.

La Tecnología de Interés Público es una aproximación centrada en el ser humano que prioriza la justicia social, la equidad y la transparencia en el diseño, desarrollo e implementación de soluciones tecnológicas. Darren Walker, presidente de la Fundación Ford, explica que PIT se enfoca menos en la tecnología en sí y más en la ética, los derechos humanos y la justicia social. PIT busca asegurarse de que la tecnología nos sirva y no al revés.

Esto implica diseñar, usar y regular la tecnología para beneficiar a todas las personas, especialmente a aquellas de grupos vulnerables o históricamente marginados. Se trata de asegurarse de que todos tengan voz en las decisiones sobre la tecnología que afecta sus vidas.

La IA ya se utiliza en el sistema de justicia penal para identificar sospechosos, predecir el riesgo de reincidencia y sugerir sentencias criminales. Estas son herramientas poderosas que prometen mejorar los resultados de justicia y afectar positivamente a la sociedad en general.

No obstante, estas mismas herramientas pueden perpetuar la discriminación cuando no se aplican con cuidado y reflexión. Según la ACLU, ha habido al menos siete arrestos erróneos en los Estados Unidos debido a la dependencia policial en resultados incorrectos de reconocimiento facial, y en casi todos esos casos, la persona arrestada erróneamente era negra. Además, las herramientas de predicción de reincidencia, como COMPAS, han sido criticadas por categorizar injustamente a los hombres negros como de alto riesgo de reincidencia en comparación con sus contrapartes blancas. Algunos tribunales penales usan esta información para informar las decisiones de sentencia de los jueces. Incluso peor, estas herramientas de IA son a menudo opacas, lo que significa que los procesos de toma de decisiones que utilizan son poco claros o completamente desconocidos.

El sesgo algorítmico en el reconocimiento facial y las herramientas de predicción de reincidencia ocurre en parte debido a datos sesgados, algoritmos mal diseñados y conjuntos de características problemáticas. Pero también se debe a la falta de orientación humana y estructuras de gobernanza que restrinjan, formen y guíen la implementación segura de la tecnología. PIT no solo enfatiza la mejora de la tecnología en sí misma, sino también la gestión humana continua de estos sistemas para reconocer, abordar y eliminar resultados sesgados por completo.

Por ejemplo, investigadores en Nueva Zelanda están desarrollando modelos transparentes para evaluar casos de agresión en tribunales penales. A diferencia del programa COMPAS, estos investigadores están desarrollando modelos de IA transparentes que abren las decisiones del modelo a la escrutinio público. Al hacer que los procesos internos de la IA sean claros, es más fácil identificar y corregir posibles sesgos y así prevenir daños. Esto se alinea con los principios centrales de transparencia y responsabilidad de PIT que contribuyen a resultados justos y a la confianza de la sociedad en estos sistemas.

Además de mejorar la transparencia, PIT también resalta la importancia de la supervisión humana. El concepto de tener a un humano en el bucle es obligatorio para garantizar la equidad, la responsabilidad y la transparencia. La IA puede ser poderosa en muchos sentidos, pero no puede reemplazar el juicio humano, especialmente en entornos de alto riesgo, como el sistema de justicia.

Los humanos no solo deben estar involucrados en el desarrollo y uso de la IA, sino que también deben tener siempre el poder de anular decisiones basadas en IA en cualquier caso dado. Esto no garantiza resultados más justos (los jueces humanos también pueden ser sesgados), pero crea responsabilidad para el resultado final. Es imposible responsabilizar a un algoritmo, pero es totalmente posible criticar y potencialmente remover a un juez injusto.

PIT no es una solución mágica. Las mentalidades por sí solas no resolverán los problemas que la IA plantea a la sociedad. Sin embargo, enfocan nuestra atención en implementar sistemas de IA de manera que promuevan la justicia y la equidad, especialmente en las áreas más sensibles, como el sistema de justicia penal.

Al defender valores como la equidad, la transparencia y la supervisión humana, PIT puede ayudarnos a minimizar los riesgos de la IA y garantizar que esta poderosa tecnología sirva a la sociedad en su conjunto. A medida que la IA se entrelaza cada vez más con nuestras vidas, PIT será aún más crucial. Trabajando juntos – tecnólogos, legisladores, defensores y el público – podemos construir un futuro donde la IA sea una fuerza para el bien y no para el daño.

Después de todo, la tecnología siempre debe ser una herramienta para la justicia, no un arma de discriminación.
vía: AI Accelerator Institute

Scroll al inicio