Empieza una nueva era para la gobernanza tecnológica
Por primera vez, Europa se prepara para regular, de manera directa y exigible, a los gigantes de la inteligencia artificial. Y lo hace con una fecha clave: el 2 de agosto de 2025, entra en vigor una parte central del nuevo Reglamento Europeo de Inteligencia Artificial (RÍA), que afecta específicamente los Modelos de IA de Propósito General (GPAI, por sus siglas en inglés).
Se trata de un hito histórico, que marcará un antes y uno después en el control democrático de la tecnología más influyente de nuestro tiempo.
¿Qué son los modelos GPAI?
Son los modelos base con que se construyen gran parte de las herramientas de IA que usamos a diario. Hablamos de sistemas entrenados con enormes volúmenes de datos, capaces de:
- Generar texto
- Hacer traducciones
- Razonar y programar
- Recomendar contenidos
- Crear imágenes y sonidos
Son el cerebro invisible detrás de productos como ChatGPT (OpenAI), Gemine (Google), Claude (Anthropic) o Llama (Meta). Y, todo y su potencial, son todavía demasiado opacos, difíciles de auditar y con riesgos significativos.
¿Qué riesgos plantean?
Las instituciones europeas han identificado peligros reales asociados a estos sistemas:
- Creación de contenido falso o engañoso, con capacidad de desinformar masivamente.
- Reproducción de sesgos algorítmicos, que pueden perpetuar desigualdades sociales.
- Vulneración de los derechos de autor, por el tipo de datos utilizados en el entrenamiento.
- Falta de transparencia y trazabilidad, que impide saber cómo y con que han sido entrenados.
- Y, sobre todo, riesgo sistémico cuando se integran en ámbitos críticos como salud, educación, justicia o procesos democráticos.
Con DianaTool este punto queda minimizado, puesto que con sus informes CORDERO y de equidad te informan del procedimiento que sigue la creación de su contenido y ya trabaja para que no haya sesgos, vulneración o contenidos engañosos.

¿Quién tiene que cumplir con el reglamento?
El RIA obliga a:
- Proveedores que desarrollen, distribuyan o comercialicen modelos GPAI dentro de la UE.
- Empresas que integren estos modelos en productos o servicios, aunque el modelo haya sido creado fuera del territorio europeo.
A partir del 2 de agosto, estas entidades tendrán que cumplir con nuevas obligaciones legales y técnicas.
¿Qué obligaciones tienen?
Todos los modelos GPAI tendrán que:
- Documentar técnicamente el modelo.
- Informar sobre los datasets utilizados para el entrenamiento.
- Respetar los derechos de propiedad intelectual.
- Cooperar con las autoridades europeas.
Y si se trata de modelos de riesgo sistémico (los más potentes, con capacidad computacional muy elevada), las obligaciones son todavía más estrictas:
- Evaluaciones de impacto antes del despliegue.
- Estudios sobre el impacto en los derechos fundamentales.
- Informes de transparencia periódicos.
- Notificación de incidencias.
¿Qué pasa si no lo cumplen?
Los artículos 50 a 55 del reglamento especifican las obligaciones. Y el artículo 113.5 fija claramente que el 2 de agosto de 2025 es el punto de inicio de la aplicación completa —incluidas las sanciones.
- Multas de hasta 15 millones de euros o el 3% de la facturación global anual.
- En caso de carencia de colaboración, hasta 7,5 millones de euros o el 1%.
Las autoridades nacionales, como la AEPD, la CNMC o la SEDIA en España, tienen potestad sancionadora. A nivel europeo, la Oficina Europea de Inteligencia Artificial y la Comisión Europea asumen la supervisión de los casos más graves o transfronterizos.

¿Qué significa esto para la ciudadanía?
Este no es solo un tema por técnicos, juristas o empresas. Nos afecta a todas.
Porque aquello que está en juego es quien controla la tecnología más poderosa de nuestra era, con qué finalidad se utiliza y como se protegen nuestros derechos fundamentales.
Europa da un paso valiendo: no solo quiere usar la IA, quiere hacerlo con garantías democráticas y humanas.
DianaTool seguirá de cerca esta evolución, ofreciendo herramientas alineadas con los valores del reglamento europeo: transparencia, trazabilidad y responsabilidad.
Fuente: Carlos García, investigador de la Universidad de Alcalà de Henares a través de Confilegal.