Skip to main content

Qué debe saber un Scrum Master sobre legalidad y ética de IA

April 11, 2026

La IA ha llegado a los equipos Scrum. Copilot sugiere código, ChatGPT redacta correos, los modelos de lenguaje resumen retrospectivas. Todo muy útil. Pero ¿alguien en el equipo se está preguntando si se puede hacer, si está bien hacerlo y qué pasa si algo sale mal?

Esa pregunta no tiene una respuesta sencilla. Y tampoco tiene un único responsable.

Este artículo no es una lista de riesgos de IA para que el Scrum Master los gestione solo. Es una invitación a reflexionar sobre dónde termina la responsabilidad del Scrum Master y dónde empieza la de otros.

El error más común: asumir que alguien ya lo tiene cubierto

En la mayoría de organizaciones con las que trabajo, cuando pregunto quién es responsable del uso ético de la IA en los equipos de producto, la respuesta suele ser un silencio incómodo seguido de alguna variante de "supongo que el área legal" o "eso lo debería mirar IT".

El problema es que el área legal no sabe qué decisiones está tomando el algoritmo. IT no sabe qué datos está enviando el equipo a herramientas externas. Y el equipo asume que si nadie ha dicho que no, es que está permitido.

En ausencia de criterios claros, los equipos improvisan. Y la improvisación ética en IA tiene consecuencias reales.

El Scrum Master ve esto desde una posición privilegiada. Está en el equipo, conoce el trabajo que se hace, y también tiene visión de la organización. Esa posición no le convierte en el responsable de ética y legalidad. Pero sí le convierte en alguien que no puede fingir que no lo ve.

¿De quién es realmente la responsabilidad?

Antes de hablar de lo que debe hacer el Scrum Master, conviene tener claro el mapa de responsabilidades. Porque uno de los riesgos del rol es asumir responsabilidades que no le corresponden, agotarse gestionando problemas organizativos que requieren decisiones de dirección, y acabar siendo el único que se preocupa de algo que toda la organización debería tener resuelto.

En una organización madura, la gobernanza ética de la IA involucra al menos a estas partes:

La dirección define las políticas de uso de IA: qué está permitido, qué no, qué requiere aprobación explícita. Si no existen esas políticas, el problema no lo puede resolver el Scrum Master.

El área legal y de compliance interpreta la regulación aplicable — el RGPD, el AI Act europeo, las normativas sectoriales — y la traduce en criterios operativos para los equipos. Si el equipo no tiene acceso a ese criterio, está trabajando a ciegas.

El Product Owner decide qué se construye y con qué datos. Las implicaciones éticas de un producto empiezan en las decisiones de producto, no en la implementación técnica.

Los Developers implementan las decisiones y conocen mejor que nadie los riesgos técnicos: qué datos se usan, cómo funciona el modelo, qué pasa si falla.

Y el Scrum Master facilita que todo esto funcione. No decide. No aprueba. No asume la responsabilidad de otros. Pero sí garantiza que los problemas sean visibles y que lleguen a quien corresponde.

Los riesgos que el equipo necesita ver

Para poder hacer eso, el Scrum Master necesita conocer el terreno. Estos son los cuatro riesgos éticos y legales más frecuentes en equipos que trabajan con IA.

Sesgos algorítmicos

Los modelos de IA aprenden de datos históricos. Si esos datos contienen sesgos — y casi siempre los contienen — el modelo los reproduce y los amplifica.

En 2018, Amazon tuvo que desactivar su sistema de selección de CVs con IA porque discriminaba sistemáticamente a las mujeres. El modelo había aprendido de los perfiles de los empleados contratados en los últimos diez años, que eran mayoritariamente hombres.

El equipo que construyó ese sistema probablemente no tenía intención de discriminar a nadie. Pero nadie hizo la pregunta correcta en el momento correcto.

Alucinaciones y fiabilidad

Los modelos de lenguaje generan texto plausible, no texto verdadero. Inventan referencias, citan artículos que no existen, atribuyen frases a personas que nunca las dijeron.

En 2023, un abogado en Nueva York presentó un escrito legal con citas de jurisprudencia inventadas por ChatGPT. El resultado fue una sanción del juez y un problema de reputación difícil de gestionar.

Cuando el output de IA se integra en el producto sin validación, el riesgo no es solo técnico. Es un riesgo para el usuario y, en última instancia, para la empresa.

Privacidad y protección de datos

Cada vez que alguien del equipo pega información de usuarios, clientes o empleados en un modelo de IA externo, está enviando esos datos a un tercero. En muchos casos, esos datos pueden usarse para entrenar modelos futuros.

El RGPD establece obligaciones claras sobre el tratamiento de datos personales. Violarlas no es solo un problema ético — es un problema legal con consecuencias económicas reales.

Responsabilidad y transparencia

Cuando una decisión la toma un algoritmo, ¿quién responde si sale mal? El AI Act europeo, en vigor desde 2024, exige explicabilidad para sistemas de IA de alto riesgo: las decisiones automatizadas que afectan a personas deben poder ser entendidas y cuestionadas.

Si el equipo no puede explicar cómo funciona lo que ha construido, tiene un problema que va más allá de la arquitectura técnica.

Lo que sí puede hacer el Scrum Master

Conocer estos riesgos no convierte al Scrum Master en el responsable de resolverlos. Pero sí le da herramientas para hacer su trabajo: facilitar la transparencia y conectar los problemas con quien tiene la autoridad y el conocimiento para resolverlos.

Hacer las preguntas que nadie hace

En la Sprint Planning: ¿hay implicaciones éticas o legales en los PBIs de este Sprint que deberíamos considerar?

En la Sprint Review: ¿el Incremento puede tener impactos no deseados en algún grupo de usuarios?

En la Retrospectiva: ¿está el equipo usando la IA de manera responsable? ¿Qué no sabemos que deberíamos saber?

No hace falta convertir cada evento en un debate filosófico. Se trata de hacer las preguntas correctas en el momento correcto, antes de que el problema sea irreversible.

Escalar los impedimentos organizativos

Si el equipo no tiene políticas claras de uso de IA, eso es un impedimento organizativo. Si no tiene acceso a criterio legal sobre privacidad, eso es un impedimento organizativo. Si la dirección no ha definido qué nivel de riesgo ético es aceptable, eso es un impedimento organizativo.

El Scrum Master no resuelve esos impedimentos solo. Los hace visibles y los escala a quien puede resolverlos.

Conectar al equipo con las partes correctas de la organización

Una de las funciones menos glamurosas pero más valiosas del Scrum Master es saber a quién llamar. ¿Hay alguien en legal que pueda orientar al equipo sobre el RGPD? ¿Hay una política de uso de IA en la empresa que el equipo no conoce? ¿Debería el Product Owner hablar con compliance antes de avanzar con esta feature?

Hacer esas conexiones es trabajo del Scrum Master. Resolver lo que esas conversaciones descubran no lo es.

La trampa de asumir demasiado

Hay un riesgo simétrico al de ignorar estos temas: asumirlos todos como propios.

Un Scrum Master que se convierte en el guardián de la ética del equipo, que revisa cada output de IA, que gestiona las relaciones con legal, que define las políticas de privacidad... está haciendo trabajo que no le corresponde, probablemente mal, y dejando de hacer el trabajo que sí le corresponde.

El Scrum Master que asume la responsabilidad de otros no ayuda a la organización a madurar. La deja sin aprender.

La madurez organizativa en gobernanza de IA requiere que cada parte asuma su rol: la dirección define políticas, legal interpreta la regulación, el Product Owner toma decisiones de producto responsables, y los Developers implementan con criterio. El Scrum Master facilita que ese sistema funcione. No lo sustituye.

Una pregunta para empezar

Si tuvieras que responder ahora mismo a esta pregunta, ¿podrías hacerlo?

¿Quién en tu organización es responsable de que el equipo use la IA de manera ética y legal? ¿Esa persona sabe que lo es? ¿El equipo sabe a quién acudir?

Si no tienes clara la respuesta, ya tienes tu primer impedimento que escalar.

Para seguir aprendiendo

El curso Professional Scrum Master – AI Essentials (PSM-AIE) de Scrum.org trabaja estos temas de manera práctica, con ejercicios reales sobre ética, alucinaciones, deepfakes y sesgos algorítmicos — no como teoría, sino como situaciones que el Scrum Master necesita saber gestionar.

Y el curso Professional Scrum Product Owner - AI Essentials (PSPO-AIE) igualmente trata estos temas desde la perspectiva y responsabilidad del Product Owner.

 

También puedes explorar estos artículos relacionados:

¿Cómo está resuelto esto en tu organización? ¿Hay alguien con un rol claro en gobernanza ética de la IA? Comparte tu experiencia en los comentarios.


What did you think about this post?

Comments (0)

Be the first to comment!