Los datos son el oxígeno de la inteligencia artificial (IA). Por ello, las compañías que desarrollan este tipo de herramientas y aplicaciones avanzan con la certeza de pisar un terreno normativo incierto y extremadamente peligroso. El caso de Grok, la inteligencia artificial de Elon Musk utilizada en la red social X para crear pornografía infantil, ha hecho saltar las alarmas. Ni los juristas, ni los abogados, ni los consultores, ni los reguladores tienen claro cómo solucionar la relación entre la protección de los datos personales y la IA. Ni siquiera llegan a imaginarse aún cuál es la envergadura del problema.
No obstante, en España, los expertos anticipan que la actividad sancionadora aumentará en los próximos meses —porque hasta el momento el ritmo sancionador ha sido moderado—. “El número de reclamaciones ha sido bajo”, reconoce Francisco Pérez Bes, adjunto de la Agencia Española de Protección de Datos (AEPD), en parte porque se trata de una tecnología aún emergente. Pero casos como el de Grok anticipan una mayor vigilancia de los organismos reguladores. La democratización de ciertas herramientas puede dar pie a las primeras reclamaciones en masa, que en opinión de Pérez Bes, podrían llegar este año.
Lucas Nieto Barrero