Representación de Internet

 

El profesor de Derecho y experto en inteligencia artificial de la Universidad Otago, en Nueva Zelanda, Colin Gavaghan, al lado de varios colegas, ha publicado un reporte respecto del funcionamiento de los sistemas de inteligencia artificial usados por el gobierno para diferentes fines, específicamente respecto del utilizado para dictar sentencias y conceder libertad bajo palabra

Como parte de la organización New Zealand Law Foundation, el profesor Gavaghan y sus colegas James MacLaurin y Alistair Knott, publicaron el reporte en el que recomiendan que se establezca un órgano de vigilancia independiente que supervise el correcto funcionamiento de los diferentes algoritmos usados por el gobierno, especialmente cuando sus resultados tienen impacto en las vidas de las personas.

El objetivo que persiguen es que exista una normativa que establezca la transparencia de los algoritmos a fin de que se pueda tener acceso a la forma en qué se hacen las ecuaciones y entender las razones por las cuales ciertas decisiones se tomaron.

Según cifras recientes, en Nueva Zelanda se utilizan 32 algoritmos en 14 dependencias de gobierno para automatizar ciertas decisiones. Afectan decisiones como la expedición de visas, las compensaciones por accidentes, la programación de los autobuses, etc.

Joel MacManus, del diario stuff.co.nz, analiza en lo particular el algoritmo conocido como Roc*Roi por las siglas de Risk of Conviction and Risk of Reimprisonment, riesgo de condena y riesgo de reincidencia, el cual es usado en Nueva Zelanda desde 1990 para ayudar a las juntas que toman decisiones para conceder libertad bajo palabra estableciendo si es seguro que la persona regrese a la sociedad o los programas de rehabilitación disponibles según sus puntajes.

También sirve en la sentencia inicial. En este caso a los jueces, a diferencia de los miembros de las juntas de liberación, no se les da a conocer el puntaje exacto de cada procesado, sino términos generales como riesgo bajo, medio, alto.

Actualmente Roc*Roi toma en cuenta 16 factores al momento de calcular los riesgos: Sexo; edad; edad del primer delito; frecuencia de las condenas; número de presentaciones ante un tribunal; total de años en prisión; número de sentencias de prisión; si el delito más reciente terminó en sentencia de cárcel; máxima sentencia de prisión; medida que pondera la gravedad del historial; delito pasado más grave; promedio de la gravedad de delitos pasados; categoría del delito; y, número de condenas.

Hasta 2005 tomaba en cuenta otro factor: etnia. Y este factor era en perjuicio de los maoríes quienes, por el mismo tipo de delito, frente a un blanco tienen entre 1.6 y 2.4 más posibilidades de ser condenados. Así, entre 2005 y 2015 la policía detuvo casi a la misma cantidad de maoríes que de blancos, cuando la población pākehā o blanca es casi tres veces mayor.

Sabemos que la inteligencia artificial es tan objetiva como la información con que fue informada. En el caso de Roc*Roi, aunque se trata de números, los únicos datos que no dependen de circunstancias humanas son el sexo y la edad, los demás son resultados de decisiones humanas: La policía decide a quién detener, a quién arrestar y elige si dar una advertencia o no. La fiscalía decide si presenta cargos o no, los jueces deciden la culpabilidad o inocencia y la duración de las sentencias.

Joel MacManus presenta el siguiente ejemplo para explicar la importancia de conocer el funcionamiento de estos algoritmos: Se trata de la condena a Philip David Wallace, un pequeño distribuidor de drogas, a dos años tres meses de prisión, y la condena al pastor Neil Rischbieter a una condena ligeramente menor de dos años, dos meses de prisión, por haber abusado sexualmente durante años de dos niñas de entre 12 y 16 años, valiéndose incluso de la vulnerabilidad de una de ellas cuando su madre estaba enferma de cáncer.

Cuando la junta de libertad bajo palabra decidió sobre la libertad anticipada de ambos, la negaron a Philip David Wallace por que tenía una alta probabilidad de reincidencia, mientras que Neil Rischbieter está saliendo libre porque sus probabilidades de reincidencia fueron bajas según el algoritmo.

El cuestionamiento no se refiere a la idoneidad de las decisiones, sino a los factores que llevan a la decisión y al derecho de los sentenciados de conocer por lo menos los factores que se tomaron en cuenta para dictar sus sentencias o para negarles la libertad anticipada.

En el caso de Nueva Zelanda, el otorgamiento de acceso a la forma en que se alimenta la inteligencia artificial es más sencilla que respecto de COMPAS, un algoritmo que funciona en varios estados de los Estados Unidos, Nueva York y California incluidos, para predecir la reincidencia, el cual al haber sido desarrollado por una empresa privada está protegido por leyes de propiedad intelectual.

Por lo anterior, el profesor Gavaghan y sus colegas abogan por la transparencia y acceso de las personas a los algoritmos: “Si te rechazan la libertad anticipada o te dicen que no te regresan a tus hijos que han sido separados, puede ser la decisión correcta o puede ser una equivocada, pero puedes recurrirla si sabes cómo se tomó”.

En el enlace a Stuff.co.nz está el reportaje completo que presenta muy interesantes datos.

Más información stuff.co.nz

miabogadoenlinea.net

Se permite la reproducción parcial o total concediendo crédito a miabogadoenlinea.net