Representación de Inteligencia Artificial

 

La legislación sobre inteligencia artificial basada en los potenciales riesgos que implica, contempla desde prohibiciones totales a la no intervención

La Unión Europea dio a conocer el miércoles el borrador de las regulaciones para el uso de Inteligencia Artificial, IA, una política única en su tipo que regula el uso que las empresas y los gobiernos dan a una tecnología considerada como uno de los avances científicos más importantes.

El documento presentado en una conferencia de prensa en Bruselas, establece límites en torno al uso de la Inteligencia Artificial en una variedad de actividades, desde automóviles autónomos hasta decisiones de contratación, selección de matrículas escolares y calificación de exámenes.

También abarcaría el uso de Inteligencia Artificial por parte de las fuerzas del orden y los sistemas judiciales, áreas consideradas de "alto riesgo" porque podrían amenazar la seguridad de las personas o los derechos fundamentales.

La idea es que garantice la seguridad y los derechos fundamentales de la ciudadanía y las empresas.

Se "intervendrá cuando sea estrictamente necesario, esto es, cuando estén en juego la seguridad y los derechos fundamentales de los ciudadanos de la Unión Europea", dijo la vicepresidenta ejecutiva de la Comisión Europea para una Europa Adaptada a la Era Digital y Comisaria Europea de Competencia, Margrethe Vestager.

Uno de los puntos más interesantes de esta regulación de la Inteligencia Artificial es que tiene en consideración los potenciales riesgos que implica del uso de la tecnología y en eso basa la regulación.

El proyecto de Reglamento establece cuatro niveles de riesgo y diversas obligaciones. El más alto de todos ellos es el "riesgo inaceptable", el cual implicará la prohibición de los sistemas de IA que se consideren "una clara amenaza para la seguridad, los medios de subsistencia y los derechos de las persona". Aquellos que, por ejemplo, manipulen el comportamiento humano para eludir la voluntad de las personas, como los utilizados en la campaña electoral de Estados Unidos o los sistemas de "puntuación social" gubernamentales o privados.

El segundo nivel es el de "alto riesgo", que abarca los sistemas de Inteligencia Artificial que se empleen en diferentes ámbitos sensibles: formación educativa o profesional, empleo, servicios públicos y privados esenciales, aplicación de las leyes, gestión de la migración, el asilo y el control de las fronteras y administración de justicia y procesos democráticos.

Antes de poder comercializarse una tecnología de IA en esta categoría, deberá contar obligatoriamente con sistemas adecuados de evaluación y mitigación de riesgos, alta calidad de los conjuntos de datos que alimentan el sistema, registro de la actividad para garantizar la trazabilidad de los resultados, documentación detallada, información clara y adecuada de cara a las personas usuarias, medidas apropiadas de supervisión humana para minimizar el riesgo, así como un alto nivel de solidez, seguridad y precisión.

En este grado de riesgo se ubican sobre todo los sistemas de identificación biométrica remota. Es decir, el reconocimiento facial. En principio, se establece que "su uso en directo en espacios de acceso público con fines policiales está prohibido". Aunque habrá excepciones porque podrán utilizarse para buscar a menores desaparecidos, prevenir una amenaza terrorista concreta e inminente o detectar, localizar, identificar o enjuiciar a un autor o sospechoso de un delito grave. Todos estos usos deberán ser autorizados judicialmente o por un organismo independiente con "límites adecuados en el tiempo, el alcance geográfico y las bases de datos buscadas".

El siguiente nivel es el "riesgo limitado", que comprende sistemas que deberán tener ciertas obligaciones de transparencia como los robots conversacionales que deberán informar a los usuarios de que están interactuando con una máquina.

En el último nivel, "riesgo mínimo o nulo", entraría "la inmensa mayoría de los sistemas de IA", y en esos casos no existe intervención.

Las empresas que violen las nuevas regulaciones, podrían enfrentar multas de hasta el 6 por ciento de las ventas globales.

Según la propuesta de la Comisión, las autoridades nacionales de vigilancia del mercado podrían ser las que controlen las nuevas normas. No obstante, también se plantea la creación de un Comité Europeo de Inteligencia Artificial que tendrá como misión facilitar la aplicación e impulsar la creación de normas en esta materia.

Las normas propuestas deberán ser adoptadas por el Parlamento Europeo y los Estados miembros a través del procedimiento legislativo ordinario. Se espera que demoren varios años en debatirse e implementarse. 

Las reglas tienen implicaciones de gran alcance para las principales empresas de tecnología, incluidas Amazon, Google, Facebook y Microsoft, que han invertido recursos en el desarrollo de Inteligencia Artificial, pero también para muchas otras empresas que utilizan la tecnología en la atención médica, los seguros y las finanzas. Los gobiernos han utilizado versiones de la tecnología en la justicia penal y la asignación de servicios públicos.

La inteligencia artificial, donde las máquinas aprenden a realizar trabajos por sí mismas mediante el estudio de grandes volúmenes de datos, es vista por tecnólogos, líderes empresariales y funcionarios gubernamentales como una de las tecnologías más transformadoras del mundo.

Pero a medida que los sistemas se vuelven más sofisticados, puede ser más difícil determinar por qué la tecnología está tomando una decisión, un problema que podría empeorar a medida que las computadoras se vuelven más poderosas. Los investigadores han planteado cuestiones éticas sobre su uso, lo que sugiere que podría perpetuar los prejuicios existentes en la sociedad, invadir la privacidad o resultar en la automatización de más trabajos.

Más información nytimes.com

miabogadoenlinea.net

Se permite la reproducción parcial o total, concediendo crédito a miabogadoenlinea.net