La Agencia Española de Protección de Datos (AEPD) ha anunciado que ha iniciado de oficio actuaciones previas de investigación a la empresa estadounidense OpenAI, propietaria del servicio ChatGPT, por un posible incumplimiento de la normativa de protección de datos. ChatGPT es un sistema de inteligencia artificial que genera textos a partir de palabras clave o frases introducidas por los usuarios, y que ha generado polémica por su uso masivo y sus posibles riesgos para la privacidad, la manipulación y la desinformación.
La decisión de la AEPD se produce después de que el Garante de la Protección de Datos Personales italiano emitiera un aviso a OpenAI para que dejara de tratar los datos de los ciudadanos de ese país el pasado 31 de marzo, y le exigiera una serie de medidas relacionadas con la transparencia, los derechos de las personas afectadas y la base legal del tratamiento de datos. Italia fue el primer país europeo en investigar a OpenAI por ChatGPT, y tras su iniciativa otros países como Alemania, Francia e Irlanda se pusieron en contacto con el regulador italiano para discutir sus conclusiones.
La AEPD, por su parte, llevó el asunto al pleno del Comité Europeo de Protección de Datos (EDPB, por sus siglas en inglés), que se celebró el pasado 13 de abril, con el objetivo de abordar conjuntamente una discusión sobre el servicio ChatGPT y sus implicaciones para los derechos fundamentales de las personas. El EDPB aceptó la petición española y decidió lanzar un grupo de trabajo específico para fomentar la cooperación e intercambiar información sobre posibles acciones que puedan llevar a cabo las autoridades de protección de datos.
ChatGPT es un ejemplo de los avances que ha experimentado la inteligencia artificial en los últimos años, pero también de los desafíos que plantea para la regulación y la ética. El sistema utiliza un modelo llamado GPT-3, desarrollado por OpenAI, que es capaz de generar textos coherentes y verosímiles sobre cualquier tema, utilizando una enorme base de datos que incluye desde libros hasta redes sociales. Sin embargo, esta capacidad también implica riesgos como la generación de contenidos falsos o engañosos, la violación de la intimidad o el consentimiento de las personas cuyos datos se utilizan para entrenar al sistema, o la falta de control o responsabilidad sobre los resultados que produce.
Estos riesgos han sido denunciados por distintas organizaciones y expertos, que han pedido una pausa en el desarrollo y el uso de estos sistemas hasta que se establezcan unas normas claras y garantías suficientes. Además, se han producido casos preocupantes como el suicidio de una persona en Bélgica tras hablar intensivamente con un chatbot basado en ChatGPT, o el uso indebido del servicio por parte de algunos usuarios para generar contenidos ofensivos o discriminatorios.
Ante este panorama, resulta imprescindible que las autoridades públicas actúen para proteger los derechos e intereses de las personas consumidoras y usuarias frente a los posibles abusos o daños que puedan derivarse del uso de ChatGPT u otros sistemas similares. La iniciativa de la AEPD es un paso importante en este sentido, pero no debe ser el único. Es necesario que se establezca una regulación armonizada y coordinada a nivel europeo e internacional que garantice el cumplimiento de los principios y obligaciones establecidos en el Reglamento General de Protección de Datos (RGPD) y otros marcos legales relevantes. Asimismo, es necesario que se fomente una cultura ética y responsable en el desarrollo y la aplicación de la inteligencia artificial, que tenga en cuenta los valores sociales y los derechos humanos.