La Ley de Inteligencia Artificial (AI Act) de la Unión Europea es el primer marco jurídico integral que regula los sistemas de IA según su nivel de riesgo. Su vertiente de accesibilidad exige que cualquier sistema de IA de alto riesgo sea usable por personas con discapacidad, garantizando equidad y cumplimiento normativo antes de agosto de 2026.

¿Por qué importa cumplir con el AI Act y la accesibilidad ahora mismo?

Si diriges un departamento de Compliance o Transformación Digital, agosto de 2026 no es una fecha lejana; es el muro contra el que chocará tu operativa si no ajustas el rumbo hoy. La normativa no es solo una lista de deseos éticos, es un reglamento con «dientes» financieros.

Las sanciones por incumplimiento pueden alcanzar los 35 millones de euros o el 7% de la facturación global anual, lo que sea mayor. Pero más allá de la multa, la accesibilidad es la llave maestra para el mercado europeo. La IA que no sea accesible será, por definición, ilegal para su comercialización en la UE. Esto afecta directamente a la reputación de tu marca y a la capacidad de participar en licitaciones públicas o contratos con grandes corporaciones que ya exigen criterios ESG (Environmental, Social, and Governance) estrictos.

¿Cómo funciona la relación entre la IA y la accesibilidad?

La accesibilidad en la IA funciona igual que el panel de mandos de un coche moderno: de nada sirve que el motor sea el más potente del mundo si el conductor no puede leer la velocidad o alcanzar los pedales. En el contexto digital, la IA es el motor, y la interfaz de usuario (junto con los datos de salida) es ese panel de mandos.

Para que un sistema sea considerado accesible bajo el AI Act, debe cumplir con los principios de perceptibilidad, operabilidad, comprensibilidad y robustez. Esto significa que si tu empresa despliega un chatbot de atención al cliente basado en IA generativa, este no solo debe responder correctamente, sino que debe ser compatible con lectores de pantalla, permitir la navegación por teclado y ofrecer alternativas textuales a cualquier contenido visual generado.

¿Cuáles son los tipos de riesgo que definen tus obligaciones?

El AI Act clasifica la IA en cuatro niveles, y tus obligaciones de accesibilidad varían según dónde encaje tu producto:

Nivel de Riesgo Ejemplos Obligación de Accesibilidad
Inaceptable Puntuación social, vigilancia biométrica masiva. Prohibidos (independientemente de la accesibilidad).
Alto Riesgo Selección de personal, concesión de créditos, educación. Máxima. Deben cumplir con la norma EN 301 549 y WCAG 2.1/2.2.
Riesgo Limitado Chatbots, deepfakes, generadores de imágenes. Transparencia. El usuario debe saber que interactúa con una IA de forma clara.
Mínimo Filtros de spam, videojuegos. Voluntaria, aunque recomendada por imagen de marca.

¿Cuándo se aplica cada fase de la normativa?

El calendario de implementación es tu hoja de ruta para evitar el caos de última hora:

  1. Febrero 2025: Entran en vigor las prohibiciones de sistemas de riesgo inaceptable.
  2. Agosto 2025: Obligaciones para la IA de propósito general (modelos fundacionales como GPT o Claude).
  3. Agosto 2026: La fecha clave. Todos los sistemas de alto riesgo deben cumplir con los requisitos de gobernanza, datos y, por supuesto, accesibilidad.
  4. Agosto 2027: Plazo final para sistemas de IA integrados en productos ya regulados (maquinaria, juguetes, dispositivos médicos).

¿Quién debe liderar este cambio en tu empresa?

No es una tarea exclusiva de los desarrolladores. Es un esfuerzo transversal que requiere tres figuras clave:

  • Responsable de Compliance: Para asegurar que los registros de actividad y la documentación técnica cumplen con el Reglamento.
  • Director de Producto/UX: Para integrar la accesibilidad desde el diseño (Accessibility by Design), evitando parches costosos a posteriori.
  • Chief Data Officer: Para vigilar que los sesgos en los datos de entrenamiento no excluyan a colectivos con discapacidad, lo cual es una forma de inaccesibilidad algorítmica.

¿Cuánto cuesta adaptar una IA a los estándares de accesibilidad?

El coste de la accesibilidad es como el de los cimientos de una casa: si los pones al principio, son una inversión asumible; si intentas cambiarlos cuando el edificio está terminado, el coste se multiplica por diez.

Para una empresa mediana, los costes directos incluyen auditorías externas (entre 5.000€ y 20.000€ según la complejidad), formación del equipo técnico y posibles ajustes en la infraestructura de datos. Sin embargo, el «coste de no hacer nada» incluye la pérdida de acceso al mercado público europeo y el riesgo de litigios por discriminación, que suelen ser mucho más elevados.

El origen de esta norma: De la ética a la ley

La preocupación por la IA no nació ayer. El AI Act es la evolución natural de las Directrices Éticas para una IA Fiable publicadas por la Comisión Europea en 2019. Durante años, la accesibilidad fue una recomendación de «buen ciudadano corporativo».

Sin embargo, la explosión de la IA generativa en 2023 aceleró el proceso legislativo. Los reguladores se dieron cuenta de que si la IA va a gestionar quién consigue un trabajo o un préstamo, no podemos permitir que las interfaces dejen fuera a 87 millones de europeos con alguna discapacidad. La norma ha pasado de ser un consejo a ser un requisito de entrada al mercado, similar al marcado CE de los productos físicos.

Mitos vs. Realidad sobre el AI Act

Mito: «Si mi empresa es pequeña, el AI Act no me afecta».

Realidad: La ley afecta a cualquier entidad que introduzca o ponga en servicio sistemas de IA en la UE, sin importar su tamaño. Las PYMES tienen facilidades, pero no exenciones de accesibilidad.

Mito: «La accesibilidad es solo para la web, no para el algoritmo».

Realidad: La accesibilidad en el AI Act incluye la ausencia de sesgos discriminatorios en el algoritmo. Un modelo que no entiende el habla de una persona con disartria es un modelo inaccesible.

Mito: «Tengo hasta 2026, hay tiempo de sobra».

Realidad: El ciclo de desarrollo de una IA compleja suele superar los 12-18 meses. Si no empiezas a auditar tus sistemas ahora, llegarás tarde a la certificación de agosto de 2026.

Preguntas Frecuentes (FAQs)

Ambas convergen en junio de 2025 y agosto de 2026. Mientras el EAA se centra en productos y servicios (cajeros, banca, e-commerce), el AI Act regula la tecnología que los hace funcionar. Si tu IA bancaria no es accesible, incumples ambas.

<p>Sí. Según el AI Act, los usuarios deben saber que hablan con una IA y esa información debe ser perceptible para todos, incluyendo personas ciegas que usan lectores de pantalla.</p>

El referente principal es la norma EN 301 549, que es el estándar europeo de accesibilidad para productos y servicios de TIC, y que a su vez bebe de las WCAG 2.1.

Es una herramienta útil para detectar fallos, pero la validación final debe ser humana. La IA todavía comete errores de contexto que pueden generar falsos positivos en accesibilidad.

Los modelos de código abierto tienen ciertas exenciones, pero si tu empresa utiliza ese modelo para un servicio comercial de alto riesgo, tú eres el responsable final de que sea accesible.

Si generas contenido visual para el público, debes proporcionar descripciones de texto alternativas (Alt-text) precisas. La accesibilidad aquí se centra en el resultado que entrega la máquina.

Se espera la creación de organismos notificados que otorgarán el marcado CE de IA. Sin este sello, no podrás operar sistemas de alto riesgo a partir de agosto de 2026.

¿Necesitas ayuda?

Contáctanos
Logotipo Tu Web Accesible
Resumen de privacidad

Esta web utiliza cookies para que podamos ofrecerte la mejor experiencia de usuario posible. La información de las cookies se almacena en tu navegador y realiza funciones tales como reconocerte cuando vuelves a nuestra web o ayudar a nuestro equipo a comprender qué secciones de la web encuentras más interesantes y útiles.