Newsletter Newsletters Events Eventos Podcasts Videos Africanews
Loader
Encuéntranos
Publicidad

Las alucinaciones de la IA la hacen no apta para tomar las decisiones importantes de su trabajo

Muchas empresas quieren contratar a trabajadores capaces de utilizar la tecnología para tareas como la investigación y la redacción de informes.
Muchas empresas buscan contratar profesionales capaces de utilizar la tecnología para tareas como investigar y redactar informes. Derechos de autor  Canva
Derechos de autor Canva
Por Euronews, AP
Publicado Ultima actualización
Compartir esta noticia Comentarios
Compartir esta noticia Close Button

Los expertos recomiendan tratar la IA como un "asistente en prácticas": no delegar decisiones importantes, comprobar la precisión de cada dato y ser extremadamente cauteloso con la información confidencial que se introduce en los prompts.

Los jueces de todo el mundo se enfrentan a un problema creciente, escritos jurídicos elaborados con ayuda de la inteligencia artificial (IA) y presentados con errores como citas de casos que no existen, según abogados y documentos judiciales.

La tendencia sirve de advertencia para quienes aprenden a usar estas herramientas en el trabajo. Muchos empleadores quieren contratar a personas capaces de utilizar la tecnología para tareas como realizar búsquedas y redactar informes. A medida que docentes, contables y profesionales del marketing empiezan a interactuar con chatbots y asistentes de IA para generar ideas y mejorar la productividad, también están descubriendo que los programas cometen errores.

Un científico de datos y abogado francés, Damien Charlotin, ha catalogado al menos 490 escritos judiciales en los últimos seis meses que contenían "alucinaciones", respuestas de IA con información falsa o engañosa. El ritmo se acelera a medida que más gente usa la IA, dijo.

"Incluso los actores más sofisticados pueden tener problemas con esto", dijo Charlotin. "La IA puede ser de gran ayuda, es estupenda, pero también hay escollos".

Charlotin, investigador sénior en HEC París, una escuela de negocios situada a las afueras de la capital francesa, creó una base de datos para rastrear casos en los que un juez determinó que la IA generativa produjo contenido inventado por la IA, como jurisprudencia fabricada y citas falsas.

La mayoría de las resoluciones proceden de casos en Estados Unidos en los que los demandantes se representaron sin abogado, dijo. Aunque la mayoría de los jueces advirtieron de los errores, algunos impusieron multas.

Pero incluso empresas de alto perfil han presentado documentos problemáticos. Un juez federal en Colorado dictaminó que un abogado de MyPillow Inc. presentó un escrito con casi 30 citas defectuosas en una demanda por difamación contra la empresa y su fundador, Michael Lindell.

La abogacía no es la única que lidia con los fallos de la IA. Los resúmenes de IA que aparecen en la parte superior de las páginas de resultados de búsqueda en la web con frecuencia contienen errores.

Las herramientas de IA también plantean preocupaciones de privacidad. Los trabajadores de todos los sectores deben ser cautos con los datos que suben o introducen en los prompts para salvaguardar la información confidencial de empleadores y clientes. Expertos en derecho y en el ámbito laboral comparten sus experiencias con los errores de la IA y describen los riesgos que conviene evitar.

Piense en la IA como un asistente

No confíe en la IA para tomar decisiones importantes. Algunos usuarios la tratan como a un becario al que se le encargan tareas y cuyo trabajo esperan revisar. "Piense en la IA como un refuerzo de su flujo de trabajo", dijo Maria Flynn, consejera delegada de Jobs for the Future, una organización sin ánimo de lucro centrada en el desarrollo de la fuerza laboral.

Puede actuar como asistente para tareas como redactar un correo electrónico o investigar un itinerario de viaje, pero no la considere un sustituto capaz de hacerlo todo, señaló. Al preparar una reunión, Flynn probó con una herramienta interna de IA, pidiéndole que propusiera preguntas de debate a partir de un artículo que compartió con el equipo.

"Algunas de las preguntas que propuso no encajaban realmente en el contexto de nuestra organización, así que pude darle esos comentarios... y volvió con cinco preguntas muy meditadas", dijo.

Compruebe la precisión

Flynn también ha detectado problemas en los resultados de la herramienta, que sigue en fase piloto. Una vez le pidió que recopilara información sobre el trabajo realizado por su organización en varios estados, pero la herramienta estaba tratando por igual el trabajo concluido y las propuestas de financiación.

"En ese caso, nuestra herramienta de IA no fue capaz de identificar la diferencia entre algo que se había propuesto y algo que se había completado", dijo Flynn.

Por suerte, tenía el conocimiento institucional para reconocer los errores. "Si es nuevo en una organización, pregunte a sus compañeros si los resultados les parecen precisos", sugirió Flynn.

Aunque la IA puede ayudar a generar ideas, confiar en ella para proporcionar información factual es arriesgado. Tómese el tiempo de comprobar la exactitud de lo que genera la IA, por muy tentador que sea saltarse ese paso.

"La gente da por hecho que, porque suena verosímil, es correcto y, además, es cómodo", dijo Justin Daniels, abogado con sede en Atlanta y socio del despacho Baker Donelson. "Tener que volver atrás y revisar todas las citas, o cuando miro un contrato que la IA ha resumido y tengo que volver a leer lo que dice el contrato, es un poco incómodo y lleva tiempo, pero es lo que hay que hacer. Por mucho que piense que la IA puede sustituir ese trabajo, no puede".

Cuidado con las herramientas para tomar notas

Puede resultar tentador usar la IA para grabar y tomar notas durante las reuniones. Algunas herramientas generan resúmenes útiles y proponen pasos de acción en función de lo hablado.

Pero en muchas jurisdicciones se requiere el consentimiento de los participantes antes de grabar conversaciones. Antes de usar la IA para tomar notas, conviene detenerse y valorar si la conversación debe permanecer protegida y confidencial, dijo Danielle Kays, socia del despacho Fisher Phillips en Chicago.

Sugirió consultar con los departamentos jurídico o de recursos humanos antes de implantar una herramienta de toma de notas en situaciones de alto riesgo como investigaciones, evaluaciones de desempeño o debates de estrategia legal.

"Hay quien sostiene que, con el uso de la IA, deberían existir distintos niveles de consentimiento, y eso es algo que está abriéndose paso en los tribunales", dijo Kays. "Diría que las empresas deberían seguir de cerca esta cuestión mientras se litiga".

Proteja la información confidencial

Si utiliza herramientas gratuitas de IA para redactar una nota o una campaña de marketing, no facilite información identificable ni secretos corporativos. Una vez que haya subido esos datos, es posible que otras personas que usen la misma herramienta puedan encontrarlos.

Esto se debe a que, cuando otros le preguntan algo a una herramienta de IA, esta busca en la información disponible, incluidos los detalles que usted reveló, mientras construye su respuesta, explicó Flynn. "No distingue si algo es público o privado", añadió.

Busque formación

Si su empresa no ofrece formación en IA, pruebe a experimentar con herramientas gratuitas como ChatGPT o Microsoft Copilot. Algunas universidades y tecnológicas ofrecen cursos que ayudan a comprender cómo funciona la IA y para qué puede ser útil.

Un curso que enseñe a construir los mejores prompts para la IA, o cursos prácticos que permitan ejercitarse, son valiosos, dijo Flynn. Pese a los posibles problemas de estas herramientas, aprender cómo funcionan puede ser beneficioso en un momento en que son omnipresentes.

"El mayor riesgo al aprender a usar la IA es no aprender a usarla", dijo Flynn. "Todos vamos a necesitar adquirir soltura con la IA, y dar los primeros pasos para ganar familiaridad, alfabetización y comodidad con la herramienta va a ser crucial".

Ir a los atajos de accesibilidad
Compartir esta noticia Comentarios