Newsletter Newsletters Events Eventos Podcasts Videos Africanews
Loader
Encuéntranos
Publicidad

Las 5 cosas que no debes compartir en ChatGPT

ChatGPT
ChatGPT Derechos de autor  AP
Derechos de autor AP
Por Euronews farsi
Publicado Ultima actualización
Compartir esta noticia Comentarios
Compartir esta noticia Close Button

ChatGPT se ha convertido en una de las herramientas populares para responder preguntas y ayudar en diversos asuntos cotidianos. Si bien su inteligencia artificial (IA) generativa puede resultar muy útil para el usuario, algunos investigadores advierten que no se debe compartir todo con ella.

PUBLICIDAD

ChatGPT, el producto de inteligencia artificial (IA) generativa de Open AI, garantiza a muchos usuarios un asistente digital que puede escribir textos, corregir códigos, analizar resultados médicos o incluso ayudar a dormir a un niño. Pero detrás de estas respuestas íntimas se esconden algoritmos que aprenden cosas de cada interacción.

A lo largo de los años, ChatGPT no solo ha aprendido, por ejemplo, cuestiones sobre tus hábitos de consumo o problemas de salud, sino que también ha memorizado muchos más detalles personales. De hecho, herramientas como ChatGPT tienen como objetivo personalizar las respuestas y mejorar su propio rendimiento futuro. Memorizan muchos detalles individuales, desde el estado físico de los usuarios hasta algunos asuntos muy privados.

Aunque los usuarios pueden deshabilitar esta función a través de la configuración, sin embargo, dado que una gran cantidad de personas son indiferentes a esto, se puede proporcionar mucha información al famoso chatbot de Open AI. Pero, ¿qué no se debe decir? ¿Y por qué?

Según las advertencias de los expertos, hay cinco tipos de datos que no se deben introducir en las conversaciones con los chatbots, ya que estos datos pueden utilizarse indebidamente en el proceso de formación de modelos, errores del sistema o incluso en ciberataques.

Información que no debe compartirse con ChatGPT

1. Datos identificativos: como el pasaporte o documento de identidad, la dirección, el número de teléfono y la fecha de nacimiento. Algunos chatbots intentan censurar estos artículos, pero no hay garantías.

2. Resultados de pruebas médicas: los chatbots no están sujetos a leyes estrictas de protección de datos de salud. Si es necesario, sube solo los resultados de las pruebas sin información de identidad.

3. Información financiera: como números de cuentas bancarias o de inversión, que pueden tener graves consecuencias si se divulgan de forma no intencionada.

4. Información empresarial confidencial: muchos usuarios utilizan chatbots para escribir correos electrónicos o comprobar códigos mientras trabajan, pero hacerlo puede revelar información empresarial confidencial o códigos confidenciales.

5. Contraseñas y nombres de usuario: los chatbots no son un espacio seguro para almacenar contraseñas o soluciones de almacenamiento virtual como bóvedas digitales. Esta información debe guardarse en un software de administración de contraseñas.

Compartir información personal en ChatGPT puede poner en riesgo la privacidad de las personas.
Compartir información personal en ChatGPT puede poner en riesgo la privacidad de las personas. AP

Las grandes empresas como OpenIA, Google y Microsoft utilizan las conversaciones de los usuarios para mejorar sus modelos. Si bien los usuarios pueden habilitar la opción de no usar datos para el entrenamiento en entornos, muchas personas desconocen esta capacidad.

Formas de mantener la privacidad

Los expertos en ciberseguridad sugieren que tome las siguientes medidas para proteger su privacidad:

Usa el modo de chat temporal: la función "Chat temporal" actúa como el modo incógnito del navegador, lo que impide que las conversaciones se guarden y se utilicen en los modelos de entrenamiento.

Eliminar conversaciones: puedes eliminarlas del historial una vez finalizada cada conversación y asegurarte de que la información se borra por completo transcurridos 30 días.

Usa herramientas de anonimización: el motor de búsqueda DuckDuckGo ha proporcionado una herramienta llamada Duck.ai que envía mensajes de forma anónima a modelos de IA, aunque sus posibilidades son limitadas en comparación con los chatbots más avanzados.

En última instancia, es el propio usuario quien debe decidir qué compartir y qué información preservar. En otras palabras, los chatbots están diseñados para mantener las conversaciones, pero la máxima autoridad aún está en tus manos.

Ir a los atajos de accesibilidad
Compartir esta noticia Comentarios

Noticias relacionadas

Este es el nuevo método para robar cuentas de WhatsApp a través de una videollamada

ChatGPT también tiene ansiedad y los expertos advierten sobre las consecuencias para el usuario

Microsoft, Apple, Google y Booking responden ante la UE sobre la prevención del fraude financiero