Chat GPT es el desarrollo de inteligencia artificial más importante de los últimos años. El mes pasado hablábamos de su impacto en la protección de datos. Hoy profundizaremos en los peligros que supone para la privacidad. ¿Vamos a ello?
Partiendo de la base de que los chatbots se nutren de nuestros datos personales y cuantos más datos recopilen, más precisa es su capacidad, tanto para detectar patrones como para anticiparse y generar respuestas; los peligros de privacidad aumentan por enteros.
Si además tenemos en cuenta que la información que se usa para entrenar a productos de inteligencia artificial como Chat GPT, se obtiene de Internet y de datos personales que en su mayoría se recaban sin consentimiento de los usuarios, estamos ante un caso de incumplimiento de la normativa de privacidad.
Medidas que debería adoptar Chat GPT para cumplir con la normativa de privacidad
1. Informar sobre el tratamiento de datos. Qué datos se usan y para qué.
2. Informar sobre cómo los titulares se pueden oponer a que sus datos sean utilizados para entrenar los algoritmos e implementar mecanismos para ello.
3. Realizar campañas informativas en medios de comunicación
4. Establecer mecanismos para la exclusión del acceso al servicio a usuarios menores de 13 años.
Preceptos de la normativa de privacidad que no se cumplen
En primer lugar, se incumple el deber de información ya que, generalmente, no se proporciona información completa y transparente a los usuarios e interesados sobre el tratamiento que de sus datos hacen estos sistemas.
Además, el incumplimiento de los principios que deben regir el tratamiento de datos personales, entre ellos, el principio de exactitud. Dado que muchos de los datos introducidos en los sistemas son inexactos. Y en consecuencia se produce una desinformación a gran escala. En este sentido, una de las grandes preocupaciones derivadas del uso de sistemas como Chat GPT es la tendencia a “maquillar” la información y aumentar los sesgos en las respuestas proporcionadas al usuario.
Otra de las infracciones destacables es la ausencia de base legitimadora que ampare el tratamiento masivo de datos personales con la finalidad de entrenar los algoritmos que rigen el funcionamiento de los chatbots.
También se destaca la contravención del principio de confidencialidad y la falta de medidas de seguridad. Lo cual incrementa enormemente la posibilidad de brechas y ciberataques.
Por ello, podemos concluir que, aunque la IA tiene el potencial de transformar sectores, solucionar problemas, simplificar respuestas o ser una gran fuente de información. También puede representar grandes riesgos éticos y sociales.
Es importante resaltar que los sistemas de chatbots pueden reproducir, reforzar y amplificar patrones de discriminación y/o desigualdad. En consecuencia, la gestión irresponsable de los datos que pueden realizar estos sistemas, da resultados poco fiables. Que además pueden dañar el bienestar de la ciudadanía y la seguridad en el tráfico jurídico.
¿Se creará un marco regulatorio sólido a nivel mundial que regule los sistemas de inteligencia artifical como Chat GPT? En Bacaria lo seguiremos de cerca para mantenerte informado.