NewsletterNewslettersEventsEventosPodcasts
Loader
Encuéntranos
PUBLICIDAD

La Policía de EE.UU. está probando la IA para redactar informes de actuaciones desde el audio de sus cámaras y es racista

La Policía de Estados Unidos usa chatbots IA para generar sus informes policiales (imagen archivo)
La Policía de Estados Unidos usa chatbots IA para generar sus informes policiales (imagen archivo) Derechos de autor Nick Oxford/AP Photo
Derechos de autor Nick Oxford/AP Photo
Por Euronews con AP
Publicado Ultima actualización
Compartir esta noticiaComentarios
Compartir esta noticiaClose Button
Este artículo se publicó originalmente en inglés

La Policía estadounidense utiliza una tecnología que graba el sonido de sus cámaras corporales para redactar sus informes de incidentes en ocho segundos.

PUBLICIDAD

Algunos departamentos de Policía de Estados Unidos están experimentando con el uso de chatbots de inteligencia artificial (IA) para elaborar los primeros borradores de sus informes de incidentes.

Una tecnología con el mismo modelo de IA generativa que ChatGPTextrae el sonido y las conversaciones de radio de un micrófono de la cámara corporal de la Policía y puede elaborar un informe en ocho segundos.

"Era un informe mejor que el que yo podría haber escrito jamás y era cien por cien preciso. Era más fluido", afirma Matt Gilmore, sargento de la policía de Oklahoma City.

La nueva herramienta podría formar parte de un conjunto de herramientas de IA en expansión que la Policía estadounidense ya está utilizando, como algoritmos que leen matrículas, reconocen rostros de sospechosos o detectan disparos.

Pocas directrices sobre el uso de los informes de IA

Rick Smith, CEO y fundador de Axon, la empresa que está detrás del producto de IA llamado Draft One, dijo que la IA tiene la posibilidad de eliminar el papeleo que la Policía tiene que hacer para que tengan más tiempo para hacer el trabajo que quieren hacer.

Pero, al igual que otras tecnologías de IA utilizadas por la policía, Smith reconoció que existen dudas. Dijo que provienen principalmente de los fiscales de distrito que quieren asegurarse de que los agentes de Policía saben lo que hay en su informe en caso de que tengan que testificar en un proceso penal sobre lo que han visto en la escena del crimen.

No quieren que suba nunca al estrado un agente que diga: "Eso lo ha escrito la IA, yo no"
Smith
CEO de Axon

La introducción de los informes policiales generados por inteligencia artificial es tan nueva que hay pocas normas, si es que hay alguna, que guíen su uso.

En Oklahoma City, mostraron la herramienta a los fiscales locales, que aconsejaron precaución antes de utilizarla en casos penales de alto riesgo.

Pero hay ejemplos de ciudades en otros lugares de EE.UU. donde los agentes pueden utilizar la tecnología en cualquier caso o como consideren oportuno.

Preocupación por el sesgo racial de la IA

Al jurista Andrew Ferguson le gustaría que se debatieran más públicamente las ventajas y los posibles perjuicios de esta tecnología antes de que entre en vigor.

Por un lado, los grandes modelos lingüísticos detrás de los chatbots de IA son propensos a inventar información falsa, un problema conocido como alucinación que podría agregar falsedades convincentes y difíciles de notar a un informe policial.

"Me preocupa que la automatización y la facilidad de la tecnología hagan que los agentes de policía sean menos cuidadosos a la hora de escribir", afirma Ferguson, profesor de Derecho de la American University que trabaja en lo que se espera que sea el primer artículo de revisión jurídica sobre esta tecnología emergente.

Según Ferguson, un informe policial es importante para determinar si la sospecha de un agente "justifica la pérdida de libertad de alguien". A veces es el único testimonio que ve un juez, sobre todo en delitos menores.

Mientras se hace el trabajo del Policía más sencillo, hace la vida de gente de color más difícil

Aurelius Francisco
Cofundador de la Fundaciones de Liberating Minds en Oklahoma

Según Ferguson, los informes policiales generados por personas también tienen defectos, pero no está claro cuál es más fiable.

La preocupación por los sesgos y prejuicios raciales de la sociedad que se incorporan a la tecnología de IA es sólo una parte de lo que el activista comunitario de Oklahoma City Aurelius Francisco considera "profundamente preocupante" de la nueva herramienta, de la que se enteró por AP.

PUBLICIDAD

En su opinión, la automatización de esos informes "facilitará la capacidad de la Policía para acosar, vigilar e infligir violencia a los miembros de la comunidad".

Compartir esta noticiaComentarios

Noticias relacionadas

Las herramientas de IA más populares entre los estudiantes: Mejoran problemas de concentración

Dinamarca plantea el uso del polémico reconocimiento facial para acabar con la violencia

¿Podría la Ley de Inteligencia Artificial europea incrementar los sistemas de vigilancia masiva?