Compliance · 9 min lectura · 12 mayo 2026
EU AI Act art. 50: cómo implementar bien la obligación de transparencia en agentes IA productivos
Si tu empresa despliega un chatbot, agente de voz o sistema conversacional con IA, el art. 50 del Reglamento (UE) 2024/1689 te obliga a informar al usuario. Esto es lo que significa en la práctica.
Qué dice el art. 50 textualmente
El art. 50 del EU AI Act establece que los proveedores de sistemas IA destinados a interactuar directamente con personas físicas deben garantizar que esos sistemas estén diseñados y desarrollados de manera que las personas físicas afectadas sean informadas de que están interactuando con un sistema de IA.
La obligación aplica salvo que sea evidente desde el contexto, lo que en práctica casi nunca se cumple en chatbots de calidad actual: los modelos GPT-4o o Claude Sonnet 4.6 generan texto indistinguible de un humano por defecto.
A quién aplica · empresas españolas
Aplica a cualquier empresa española que use IA conversacional cliente-facing:
- Clínicas dentales con agente de voz contestando llamadas.
- Hoteles con WhatsApp Business automatizado.
- Bufetes con chatbot RAG sobre su KB legal.
- E-commerce con asistente de compra IA.
- Cualquier vertical B2C o B2B con interacción directa.
El responsable es el deployer (la empresa que despliega · típicamente el cliente final), aunque proveedores como Vexakon implementamos el cumplimiento técnico por defecto en todos nuestros agentes.
Texto canónico que recomendamos reproducir
Para canal voz (telefonía):
Hola, ha llamado a [Empresa]. Soy Vexa, asistente con inteligencia artificial. ¿Quieres seguir hablando conmigo o prefieres que te conecte con una persona humana?
Tres elementos obligatorios:
- Identificación marca empresa (no solo "soy un asistente" anónimo).
- Identificación naturaleza IA ("inteligencia artificial" o "asistente IA" · NO "asistente virtual" ambiguo).
- Opción transferencia humana · si el usuario quiere humano, lo recibe sin fricción.
Audit trail técnico · lo que muchos olvidan
Si la AEPD inspecciona y pregunta "¿puede demostrar que el 100% de sus interacciones reproducen el disclosure?", una respuesta de "sí, está hardcoded en el prompt" no basta. Necesitas log técnico verificable.
Lo que recomendamos almacenar por interacción:
interaction_id· UUID único.cliente_slug· qué deployer.channel· voice / chat_whatsapp / chat_web.end_user_pseudonym· HMAC del teléfono o email, NO PII en claro.disclosure_text· texto exacto reproducido.disclosure_text_hash· SHA256 para integridad.delivered_at· timestamp UTC.delivery_method· tts_audio / text_message.user_acknowledged· bool si confirmó "sigo".
Retención mínima recomendada: 24 meses (proporcionalidad RGPD art. 5.1.e + finalidad audit trail compliance).
Sanciones · qué te juegas
El art. 99 EU AI Act establece multas hasta:
- €35.000.000 o 7% facturación anual mundial(lo mayor) por sistemas prohibidos.
- €15.000.000 o 3% facturación por incumplimiento obligaciones art. 50.
- €7.500.000 o 1.5% facturación por información incorrecta a autoridad supervisora.
En España la autoridad supervisora será la AESIA (Agencia Española de Supervisión de la IA, sede A Coruña, designada por Real Decreto 729/2023).
Casos prácticos por canal
Voice (telefónico)
El disclosure se reproduce vía TTS al inicio de cada llamada. Duración media: 5-7 segundos. Coste tiempo aceptable a cambio de compliance + confianza usuario.
WhatsApp / chat web
Primer mensaje del agente debe contener disclosure. Si la conversación dura múltiples días, NO es obligatorio repetirlo en cada mensaje, pero recomendamos hacerlo cada 24h sin actividad.
Widget chat embebido
Banner visual + primer mensaje texto. Diseño debe ser legible sin ser intrusivo · no minimizar a "info icon".
Lo que NO basta
- ❌ "Asistente virtual" sin mencionar IA.
- ❌ Disclosure solo en footer web · cliente nunca lo ve.
- ❌ "Powered by GPT-4" como única señal · técnico irrelevante al usuario.
- ❌ Disclosure tras 5 turns de conversación · ya hubo interacción significativa antes.
Vexakon · cómo lo implementamos por defecto
En Vexakon, todos nuestros productos (Vexa-Voice, Vexa-Chat, Vexa-RAG) traen el disclosure art. 50 hardcoded en el prompt productivo, y el log técnico ai_disclosure_log activo desde el día 0 del go-live.
El texto exacto reproducido está documentado en nuestra página de transparencia IA, y la eval suite continua valida 100% disclosures correctas pre-go-live y en muestreo 5% en producción.
¿Despliegas un agente IA y dudas si tu setup actual cumple? Revisamos en 30 minutos sin coste. Programa una review →