16 de Marzo de 2026
Nueva obligación legal en empresas: formación en IA
Autoría: Marta Anaya
Profesional del marketing y la comunicación
Tiempo de lectura: minutos
La inteligencia artificial se ha incorporado a las empresas con una naturalidad sorprendente. En apenas unos años ha pasado de ser una curiosidad tecnológica a convertirse en una herramienta cotidiana en departamentos de marketing, recursos humanos, finanzas, operaciones.... Y, en la mayoría de los casos, su adopción ha sido más rápida que la reflexión sobre sus implicaciones.
Sin embargo, el escenario ha cambiado. Desde la aprobación del Reglamento (UE) 2024/1689, conocido como AI Act, su uso en las empresas ha pasado a estar sujeto a obligaciones legales concretas. Esta regulación introduce una obligación clara para las organizaciones: garantizar que las personas que utilizan o supervisan sistemas de IA cuenten con la formación adecuada sobre sus riesgos y responsabilidades.
En este artículo analizamos qué establece exactamente el AI Act, a qué empresas afecta esta obligación y por qué la formación en el uso responsable de la inteligencia artificial empieza a convertirse en una cuestión de cumplimiento para muchas organizaciones.
No hablamos de una recomendación ni de una tendencia formativa. Hablamos de una exigencia legal.
Qué dice exactamente la norma
El artículo 4 del Reglamento (UE) 2024/1689 establece que los proveedores y los responsables del despliegue de sistemas de inteligencia artificial deberán adoptar medidas para garantizar, en la medida de lo posible, un nivel suficiente de alfabetización en materia de IA de su personal y de otras personas que operen o supervisen dichos sistemas.
Traducido al lenguaje empresarial: si tu organización utiliza sistemas de IA en su actividad, debe asegurarse de que las personas que los usan entienden qué están utilizando, cuáles son sus límites y qué riesgos y responsabilidades implica su uso. No es necesario desarrollar tecnología propia. Basta con utilizar herramientas de IA en procesos internos para que la obligación resulte aplicable.
¿A qué empresas afecta esta obligación?
Aquí es donde surgen más dudas. Muchas organizaciones parten de la premisa de que esta normativa está dirigida únicamente a grandes desarrolladores tecnológicos. Sin embargo, cuando se analiza el alcance del Reglamento -e incluso utilizando el comprobador orientativo puesto a disposición por la Comisión Europea-se constata que el concepto de “responsable del despliegue” incluye a cualquier empresa que utilice sistemas de IA en su actividad profesional.
En la práctica, cualquier organización que utilice sistemas de inteligencia artificial en su actividad profesional actúa como responsable del despliegue y queda sujeta a las obligaciones previstas en el Reglamento.
Esto incluye, entre otros supuestos:
-
Empresas que utilizan herramientas de IA generativa para contenidos, análisis o automatización.
-
Organizaciones que emplean sistemas automatizados en selección de personal o evaluación.
-
Compañías que integran algoritmos de decisión en procesos internos.
-
Negocios que utilizan soluciones de terceros que incorporan inteligencia artificial.
Si la IA influye en decisiones, procesos o resultados, existe responsabilidad.
¿Y quién dentro de la empresa debe formarse?
La obligación no se limita al departamento de IT ni a perfiles tecnológicos. El artículo 4 del Reglamento (UE) 2024/1689 se refiere a las personas que operan o supervisan sistemas de inteligencia artificial en el marco de la actividad profesional de la empresa. En la práctica, esto incluye a cualquier profesional que utilice herramientas de IA como parte de su trabajo habitual ya sea para generar contenidos, analizar información, automatizar procesos o apoyar decisiones.
El Reglamento introduce un criterio de proporcionalidad, lo que significa que la formación debe adecuarse al nivel de exposición y al riesgo asociado. Sin embargo, en empresas donde la IA ya se utiliza de forma transversal, resulta difícil acotar la obligación a un grupo reducido.
En organizaciones donde la inteligencia artificial ya se utiliza en varios departamentos, la obligación no queda circunscrita a un área concreta. Puede afectar a una parte significativa de la plantilla.
¿Es suficiente con una política interna?
Otra duda habitual es si basta con redactar una política de uso responsable de inteligencia artificial y comunicarla a la plantilla. Muchas empresas han optado por este primer paso, estableciendo normas internas sobre qué herramientas pueden utilizarse o qué prácticas deben evitarse.
Sin embargo, a la luz del artículo 4 del Reglamento esto no resulta suficiente si no va acompañado de medidas reales. El Reglamento no habla solo de principios o declaraciones, sino de adoptar medidas para garantizar la alfabetización en IA. Y garantizar implica algo más que informar: implica formar.
La existencia de una política demuestra intención, pero no acredita que las personas comprendan efectivamente los riesgos, límites y responsabilidades asociados al uso de estos sistemas. Para que la obligación se considere cumplida, la organización debe poder demostrar que ha facilitado una formación adecuada y que esta puede ser trazable y verificable.
En un contexto de cumplimiento normativo, la capacidad de acreditar que se ha formado al personal es tan relevante como la formación en sí misma. Porque cuando se produce una revisión o un incidente, lo que se analiza no es solo lo que la empresa declaró, sino lo que realmente hizo.
La obligación que muchas empresas están ignorando
La adopción de IA en las empresas ha sido rápida y, en muchos casos, informal.
Equipos que utilizan herramientas generativas sin directrices claras.
Mandos intermedios que aplican automatizaciones sin formación previa.
Procesos que incorporan IA sin revisión legal o de cumplimiento.
Mientras no ocurre nada, el riesgo parece inexistente.
Pero basta con que se produzca una auditoría, una inspección o un conflicto laboral relacionado con una decisión automatizada para que la cuestión deje de ser teórica. También puede ocurrir que un uso inadecuado de la inteligencia artificial genere un incidente con impacto legal o reputacional. En cualquiera de estos escenarios, la empresa tendrá que demostrar qué medidas adoptó para garantizar un uso responsable y conforme a la normativa.
La empresa deberá poder responder a una pregunta clave:
¿Qué medidas adoptó para garantizar que su personal estaba formado en el uso responsable de la IA?
Si no existe formación estructurada y documentada, la posición defensiva se debilita.
Riesgos de no implantar formación en IA
El incumplimiento de obligaciones derivadas del Reglamento Europeo de IA puede conllevar:
-
Sanciones económicas relevantes.
-
Requerimientos de subsanación.
-
Mayor exposición jurídica en caso de daños.
-
Deterioro reputacional.
-
Responsabilidad organizativa por falta de diligencia.
Más allá de la cuantía concreta de las sanciones, el riesgo más inmediato es no poder acreditar que la empresa actuó de forma preventiva.
Cómo adaptarse
Contar con una formación estructurada sobre alfabetización en inteligencia artificial y cumplimiento del AI Act permite a la organización no solo reducir riesgos, sino también documentar una medida concreta de diligencia preventiva.
Por ello, hemos desarrollado la formación Alfabetización en Inteligencia Artificial: riesgos y responsabilidades (AI Act), de 5h de duración diseñada específicamente para dar respuesta a la obligación recogida en el artículo 4 del Reglamento (UE)
El curso ofrece una base clara y accesible para comprender cómo funciona la IA, cuáles son sus riesgos y qué responsabilidades implica su uso dentro de la empresa. Es una capacitación orientada al cumplimiento normativo, al uso responsable y a la integración segura de la inteligencia artificial en los procesos organizativos.
Está dirigida a todos los profesionales que utilizan la IA en su actividad diaria. Además, la formación se imparte en modalidad 100 % online y a tu ritmo, lo que facilita su implantación en toda la plantilla sin interferir en la actividad diaria. Una solución flexible y pensada para que el cumplimiento no se convierta en una carga en la empresa.
.png)