BookmarkSubscribeRSS Feed
joechapel
SAS Employee

La inteligencia artificial (IA) y sus diversas ramas, como aprendizaje de maquina (o machine learning), el aprendizaje profundo (o deep learning) y la visión por computadora (computer visión), han tenido un gran impacto desde sus comienzos y de manera más significativa en los últimos años en diversos sectores de la sociedad, incluyendo la seguridad pública y la justicia. Aunque dichas tecnologías han sido utilizadas para automatizar tareas y mejorar la eficiencia y efectividad en la toma de decisiones, así como para prevenir delitos y aumentar la seguridad ciudadana, es importante aclarar el factor clave del uso ético de las mismas.

 

El uso de la IA en el sector de seguridad pública y justicia ha generado preocupaciones éticas y morales. Es importante recalcar el gran esfuerzo de los gobiernos para establecer marcos regulatorios que permiten atender el uso ético de la IA dentro de los procesos nacionales, como ejemplo podemos ver la ley de iniciativa nacional de IA de 2020 que establecen un Comité Asesor Nacional de IA en el Gobierno de Estados Unidos1, la ley para la regulación ética de la IA en México2, el marco ético para la IA en Colombia3, La ley No. 31814 en Peru4 y el Decreto No. 50 en Argentina5, por mencionar algunos países.

 

Sin embargo, aunque muchos gobiernos han concluido la etapa regulatoria, hay muchas organizaciones no están listas tanto a nivel procedimientos como a nivel tecnológico para dar cumplimiento a estos marcos regulatorios. Por ello en esta publicación compartiré algunas de las preocupaciones más importantes del uso ético de la IA que los gobiernos deben atender:

 

Una de las principales preocupaciones éticas en el uso de la IA en el sector de seguridad pública y justicia es la discriminación o sesgos “automatizada”. Los algoritmos de aprendizaje automático pueden ser entrenados con datos sesgados de forma consciente o inconsciente que reflejen prejuicios y discriminaciones históricas, así como la interpretabilidad que se le da a los resultados de los modelos, lo que puede llevar a que se tomen decisiones injustas y discriminatorias. Por ejemplo, si un algoritmo de reconocimiento facial se entrena con imágenes de una población predominantemente de una etnia "X", es posible que la problemática de negocio que se desea detectar tenga una tendencia o discriminación hacia dicha etnia, y no logre ser tan efectivo reconociendo patrones similares en personas de otras etnias, lo que puede llevar a la discriminación o sesgos raciales.

 

En Latinoamérica, donde la discriminación y la desigualdad son problemas persistentes, esto es particularmente preocupante. Por ejemplo, en muchos países de la región, las comunidades indígenas a menudo enfrentan discriminación y exclusión social. Si los algoritmos de IA utilizados en la seguridad pública y la justicia no toman en cuenta estas realidades, podrían perpetuar la discriminación y la exclusión.

 

Otra preocupación ética es la privacidad y seguridad. La IA puede ser utilizada para recopilar y analizar grandes cantidades de datos, lo que puede ser útil para prevenir delitos y mejorar la seguridad pública (de otra forma sería imposible realizarlo con procesos manuales y requerirían demasiado tiempo para poder tener un accionable). Sin embargo, esto también puede ser una invasión de la privacidad de datos de las personas. Si no se manejan adecuadamente, los datos recopilados por la IA podrían utilizarse para espiar a los ciudadanos y violar sus derechos de privacidad, e incluso hacer robo de identidad.

 

En Latinoamérica, donde la violación de los derechos humanos es un problema común, esto es particularmente preocupante. Si los gobiernos utilizan la IA para monitorear a los ciudadanos sin respetar su privacidad, esto podría llevar a un aumento en la vigilancia y la represión.

 

Una tercera preocupación ética es la transparencia y la responsabilidad. A medida que la IA se utiliza cada vez más en la toma de decisiones en el sector de la seguridad pública y la justicia, es importante que los algoritmos y los datos utilizados sean transparentes y que las decisiones tomadas por la IA sean responsables, comprensibles y accesibles (algunos gobiernos ya ofrecen portales de transparencia para mostrar resultados). Si los ciudadanos no pueden entender cómo se toman las decisiones y quién es responsable, esto puede llevar a la falta de confianza en el sistema y la injusticia.

 

En Latinoamérica, donde la corrupción y la falta de transparencia son problemas comunes, esto es particularmente importante. Si los ciudadanos no confían en el sistema de justicia debido a la falta de transparencia y responsabilidad en el uso de la IA, esto podría llevar a una mayor inseguridad y desconfianza en el gobierno.

 

Para abordar estas preocupaciones éticas, es importante que se desarrollen y apliquen marcos regulatorios y éticos para el uso de la IA en el sector de seguridad pública y justicia. Los gobiernos y las organizaciones deben trabajar en conjunto para garantizar que se utilicen los mejores datos (datos veraces, sin sesgos, datos que sean incluyentes a todos los sectores, géneros, sexos, temporalidad, etc.), así como el uso de algoritmos disponibles y que se tomen medidas para evitar la discriminación, proteger la privacidad (de datos sensibles y personales) para garantizar la transparencia y la responsabilidad.

 

En conclusión, la IA tiene el potencial de mejorar la seguridad pública y la justicia en Latinoamérica, pero también presenta importantes preocupaciones éticas. Es importante que se aborden estas preocupaciones con un enfoque cuidadoso y reflexivo para garantizar que la IA se utilice de manera justa, responsable y asegurando que no afectará o dañará la integridad o seguridad de los ciudadanos. Para poder llevar esto a cabo deben de cuidarse aspectos importantes de la ley de protección de datos, gobernar dichos procesos, enmascarar la información, recolectar información sin generar sesgos o tendencias que pudieran afectar algún sector de la población, y generar procesos que identifiquen de forma proactiva y mitiguen impactos adversos, así como permitir la auditabilidad y cumplimiento de marcos regulatorios.

 

Comparto algunos links de interes:

https://towardsdatascience.com/eliminating-ai-bias-5b8462a84779

https://learning.oreilly.com/library/view/practicing-trustworthy-machine/9781098120269/ch02.html#idm...

https://content.naic.org/cmte_h_bdwg.htm 

Become a leader in AI and Analytics: PwC

Artificial Intelligence and Ethics - The SAS AI ethics primer | SAS

(359) The future of AI: A discussion with AI experts - YouTube

Forum en español - Page 2 - SAS Support Communities

A growing number of business executives think A.I. adoption is moving too quickly, raising risks, a ...

IBM Abandons Facial Recognition Products, Condemns Racially Biased Surveillance : NPR

Incidente 469: Las herramientas automatizadas de detección de contenido para adultos mostraron un se...

Amazon Built AI to Hire People, but It Discriminated Against Women (businessinsider.com)

ChatGPT’s creators say AI has been ‘biased, offensive and objectionable’ – and commits to fix it (ya...

The current legal cases against generative AI are just the beginning | TechCrunch

 

 

Lista de Referencias

  1. https://www.ai.gov/naiac/
  2. http://sil.gobernacion.gob.mx/Archivos/Documentos/2023/04/asun_4543395_20230413_1680209417.pdf
  3. https://www.usergioarboleda.edu.co/wp-content/uploads/2021/11/Marco-etico-para-la-inteligencia-artif...
  4. https://spijweb.minjus.gob.pe/wp-content/uploads/2023/07/L-31814.pdf
  5. https://www.boletinoficial.gob.ar/detalleAviso/primera/287679/20230602