Compartir:
La mayoría de las aplicaciones con inteligencia artificial utilizan las interacciones de los usuarios para seguir entrenando sus modelos. Desactivar esta función es un paso esencial para preservar la privacidad.
Cada vez más personas confían en herramientas con inteligencia artificial (IA) para resolver tareas diarias: redactar documentos, resumir textos, generar ideas, traducir contenidos o simplemente responder preguntas. Lo que no todos saben es que, al hacerlo, están compartiendo datos que pueden ser utilizados para entrenar y mejorar esos mismos sistemas.
Plataformas como ChatGPT permiten que las conversaciones mantenidas con los usuarios, incluidos los archivos que se suben o la información que se escribe, sean analizadas con fines de desarrollo. Esto ocurre especialmente en versiones gratuitas o en suscripciones como Plus o Pro. Solo las versiones avanzadas de pago, como Team o Enterprise, excluyen por defecto a sus usuarios de este entrenamiento automático.
Aunque las empresas aseguran que no utilizan estos datos con fines comerciales, la realidad es que los modelos se alimentan de las interacciones reales para mejorar su rendimiento, precisión y capacidad de respuesta. Y esto implica una exposición continua de información, muchas veces sin que el usuario lo sepa o lo haya autorizado expresamente.
Cómo proteger tus datos: una configuración clave
En el caso de ChatGPT, es posible limitar esta recopilación desactivando manualmente la opción correspondiente. Para hacerlo, hay que:
- Acceder a la cuenta desde https://chatgpt.com.
- Pulsar sobre el icono de perfil y entrar en “Configuración”.
- Seleccionar “Controles de datos”.
- Desactivar la opción “Mejorar el modelo para todos”.
Este ajuste reduce significativamente el riesgo de que las conversaciones sean procesadas para entrenar futuras versiones del modelo. No obstante, hay que tener en cuenta que algunos datos seguirán siendo recopilados por razones legales, de seguridad o funcionamiento, como el nombre, la dirección IP, el navegador utilizado, el sistema operativo o la duración de las sesiones.
Una recomendación aplicable a todo servicio digital
Más allá de ChatGPT, esta reflexión debería extenderse a cualquier herramienta o servicio digital. Aplicaciones móviles, redes sociales, asistentes virtuales o plataformas en la nube recopilan constantemente datos de uso que pueden alimentar sistemas automatizados. Por ello, es importante revisar los ajustes de privacidad de cada servicio, comprobar si entrenan sus modelos con datos del usuario y, siempre que sea posible, desactivar esa opción.
Además, conviene extremar la precaución a la hora de compartir información sensible, como datos personales, imágenes o archivos confidenciales. Y exigir a las plataformas transparencia sobre sus políticas de uso de datos, garantizando siempre el control por parte del usuario.
Europa legisla para proteger al ciudadano
En este contexto, la Unión Europea ha dado un paso importante al aprobar en 2024 una normativa pionera sobre inteligencia artificial. El nuevo marco legal prohíbe prácticas como:
- La manipulación de personas vulnerables por edad, discapacidad o situación socioeconómica.
- La clasificación social o social scoring.
- La predicción de delitos basada únicamente en rasgos personales.
- La recopilación masiva de imágenes para sistemas de reconocimiento facial.
- La inferencia emocional en entornos laborales o educativos.
- La deducción de rasgos sensibles como orientación sexual, raza, religión o ideología.
- El reconocimiento biométrico en tiempo real en espacios públicos, salvo en casos excepcionales.
Estas medidas buscan colocar al usuario en el centro, protegiendo sus derechos fundamentales ante el avance imparable de la IA. Para ello, será clave el papel de organismos como la Agencia Española de Supervisión de la Inteligencia Artificial (AESIA), que velará por el cumplimiento de estas normas y dará soporte a los ciudadanos.
La privacidad no se cede, se protege
En un entorno cada vez más automatizado, proteger nuestra privacidad no es solo un derecho, es una necesidad. Y empieza por acciones tan simples como revisar la configuración de nuestras aplicaciones favoritas. Desactivar el entrenamiento automático de IA no significa dejar de usar la tecnología, sino utilizarla de forma consciente, responsable y segura.
Porque en la era digital, proteger nuestros datos es también proteger nuestra identidad. Y ese es un derecho que no deberíamos ceder a cambio de comodidad o eficiencia.