Está de moda y es casi imposible que no hayas escuchado hablar de él: ChatGPT. No es la primera aplicación de inteligencia artificial que existe en el mundo, pero sí que es cierto que su eclosión ha marcado un antes y un después en el uso de esta tecnología. Y, por otro lado, era evidente que algo tan revolucionario iba a tener aristas: entre otras que todavía están por ir viendo, una de las preocupaciones y peligros del ChatGPT ha llegado en relación a la protección de datos. ¿Qué ha ocurrido exactamente? ¿desde dónde han dado la voz de alarma? En Millennium, tu empresa de protección de datos de confianza en Santiago de Compostela, te damos las respuestas.
¿Hay peligros en materia de protección de datos al usar ChatGPT?
Si ChatGPT es un peligro en materia de privacidad y protección de datos será algo que tendrá que resolverse en su momento. De momento, lo que sabemos es que la Agencia Española de Protección de Datos (AEPD) comunicó el pasado mes de abril que iniciaba de oficio un procedimiento previo a la investigación de la empresa estadounidense OpenAI, que es la propietaria del chat más famoso en la actualidad. El objetivo lo comunicó claramente la AEPD: saber si estamos ante un posible incumplimiento de la normativa.
La agencia española lo que ha hecho es trasladar su preocupación al Comité Europeo de Protección de Datos porque entienden, según una nota de prensa emitida y publicada en su web, "que los tratamientos globales que pueden tener un importante impacto sobre los derechos de las personas requieren de acciones armonizadas y coordinadas a nivel europeo en aplicación del Reglamento General de Protección de Datos". En este sentido, ya está confirmado que esta autoridad europea ha lanzado un grupo de trabajo que fomentará la cooperación de los estados miembros e intercambiará información que vayan recabando las diferencias agencias competentes.
¿Cuáles son los temores de la AEPD?
Según ha quedado publicado, la agencia española de protección de datos ha manifestado el temor a que, precisamente, ChatGPT pueda estar recogiendo datos de sus usuarios de forma irregular. En este sentido, parece que las preocupaciones de seguridad también se extienden a la información que precisan recopilar de los usuarios de pago, así como la ausencia de filtros que certifiquen que la herramienta la utilizan únicamente personas de la edad adecuada.
La voz de alarma, no obstante, no llegó en primer lugar por parte de España:
- Italia ya bloqueó en marzo la utilización de ChatGPT por serias dudas del cumplimiento de su legislación.
- Tras la decisión italiana, Francia, Alemania e Irlanda ya le preguntaron a los transalpinos qué estaba ocurriendo y si ellos también debían preocuparse. En este sentido, la homóloga francesa de la AEPD ya ha recibido quejas de usuarios, según han declarado.
- Ya se sabe también que EEUU está buscando la mejor manera de legislar sobre el uso no solo de ChatGPT, sino de todas estas herramientas basadas en IA.
- Desde China también llegan noticias parecidas: su gobierno ya ha avisado de que busca el encaje legal para que empresas como OpenAI tengan que rendir cuentas concretas de su actividad en todo lo relativo a la privacidad.
¿Significa esto que las agencias de protección de datos no quieren inteligencia artificial?
No, nada más lejos. Desde la AEPD lo que han hecho es aclarar que no buscan para nada poner piedras en el camino, sino más bien abogar "por el desarrollo y la puesta en marcha de tecnologías innovadoras como la inteligencia artificial desde el pleno respeto a la legislación vigente" ya que, recordemos, es la única manera de respetar los derechos y las libertades de los ciudadanos.
Unas afirmaciones que, como no podía ser de otra manera, compartimos al 100% desde Millennium: nuestro trabajo es hacer que los clientes que depositan su confianza en nosotros cumplan con éxito y de manera sencilla, eficaz y con garantía con toda la normativa existente a la protección de datos.