Inicio Opinión Los riesgos de la inteligencia artificial y el derecho

Los riesgos de la inteligencia artificial y el derecho

7 minuto leer
Comentarios desactivados en Los riesgos de la inteligencia artificial y el derecho
0

[ad_1]

A largo plazo, casi cualquier trabajo legal que dependa del análisis de datos históricos para predecir resultados probables caerá bajo el dominio de la inteligencia artificial.

Aunque esto tiene sus riesgos. Las decisiones de los algoritmos se producen dentro de una “caja negra” y la lógica que los guía muchas veces es difícil de entender para los humanos (incluso para expertos).

En mayo de 2017, el departamento de policía de la ciudad británica de Durham anunció el lanzamiento de la herramienta de evaluación de riesgos del daño llamada HART (las siglas del nombre en inglés Harm Assessment Risk Tool), un sistema de inteligencia artificial diseñado para ayudar a los agentes de policía a decidir si un sospechoso debe ser liberado o detenido en custodia.

Entrenado con más de 100.000 eventos de custodia, el algoritmo se utilizó para clasificar a las personas arrestadas bajo sospecha de un delito como de alto, medio o bajo riesgo de cometer un crimen en el futuro. Las personas evaluadas como de bajo o medio riesgo eran elegibles para un programa de rehabilitación.

Aquellas clasificadas como de alto riesgo se mantenían en custodia y debían enfrentar un proceso judicial. El Dr. Geoffrey Barnes, de la Universidad de Cambridge, llevó a cabo un estudio sobre individuos arrestados en Durham entre septiembre de 2016 y octubre de 2017. Siguió a los sospechosos para ver si reincidían y volvían a la custodia en un plazo de dos años.

HART demostró ser mejor que los funcionarios humanos en la predicción de las tasas de reincidencia. Tuvo una precisión del 53.8% en comparación con el 52.2% de los oficiales de custodia.

Pero, ¿qué pasa si un algoritmo predice erróneamente que un sospechoso tiene altas probabilidades de reincidir? Esa persona podría terminar injustamente en la cárcel.

Es probable que los sistemas de justicia del futuro sean una combinación entre inteligencia artificial y supervisión humana. En particular, sistemas basados en ideas de justicia descentralizada que combinan blockchain y crowdsourcing para emitir decisiones neutrales y equitativas en disputas.

Tales sistemas reúnen paneles de jurados expertos de manera aleatoria para llegar a decisiones imparciales. El uso de la tecnología blockchain proporciona trazabilidad, responsabilidad y transparencia al proceso. Por ejemplo, asegurándose de que nadie pueda manipular los datos o el sorteo aleatorio que determina qué jurados expertos deben revisar un caso.

Diseñar un sistema de toma de decisiones con estas características puede abordar desafíos de opacidad y sesgo en la IA. La blockchain garantiza un proceso transparente, mientras que el crowdsourcing diversifica las perspectivas.

Los sistemas de justicia descentralizada, con escalada y revisión por jurados diversos, añaden transparencia y responsabilidad cruciales en un contexto de IA opaca. Jurados humanos interpretan y explican decisiones conjuntas con algoritmos, permitiendo la auditoría para identificar posibles sesgos.

En el siglo XIX, Bentham abogó por transparencia legal debido a la opacidad por jerga y procesos. Hoy, la complejidad algorítmica se plantea como nueva fuente de opacidad. En un artículo del Wall Street Journal, Kissinger, Schmidt y Huttenlocher expresan inquietudes sobre la toma de decisiones democrática, señalando la amenaza de la algocracia.

Con la inminente era de la inteligencia artificial, la relevancia de este problema se intensifica, dado que más sistemas automatizados influirán en diversos aspectos de nuestras vidas. La IA, en lugar de ser temida, puede potencialmente mejorar la eficiencia de los sistemas legales y contribuir al avance hacia una justicia más inclusiva.

Para cumplir con la promesa de la inteligencia artificial, se requiere un diseño de mecanismo adecuado para evitar que las ganancias de eficiencia afecten nuestras democracias y derechos. Los sistemas de resolución de disputas con crowdsourcing y blockchains minimizan el riesgo de algocracia.

Federico Ast es profesor de la Facultad de Ciencias Empresariales y del IAE Business School de la Universidad Austral, y fundador de Kleros.

[ad_2]

Link de la Fuente

Cargue Artículos Más Relacionados
Cargue Más Por Mundo Político
Cargue Más En Opinión
Comentarios cerrados

Mira además

Diputados provinciales expresaron su orgullo por los logros de Quimsa

[ad_1] La Legislatura destacó el título conseguido por el equipo fusionado, que se quedó c…