La IA no fracasa donde crees
“Alizana IA + Humanos” sesión en SXSW26, Marzo 16, 2026
Cuatro semanas después de SXSW26, hay un momento que no se me va de la cabeza.
A los dos minutos de empezar nuestra sesión, Margaret Spence y yo hicimos algo que se supone que no debes hacer en una conferencia.
Tiramos la presentación por la borda.
“Marinero”
La sala era una mezcla interesante. Estudiantes de la Generación Z. Directivos de RR.HH. Desarrolladores de IA. Diseñadores de UX. Gente que rara vez coincide en la misma sala, y mucho menos en una conversación real.
Los miramos y les dijimos: "Habíamos preparado una presentación. Pero vais a ser vosotros quienes decidáis qué pasa aquí."
Y les hicimos una sola pregunta.
¿A qué le tienes más miedo?
Lo que vino después es la razón por la que estoy escribiendo esto.
Los miedos no eran los que esperarías
Nadie dijo "la singularidad."
Nadie mencionó a la IA descontrolándose.
Nadie habló de "las máquinas tomando el control."
Lo que dijeron era profundamente humano:
Falta de alineación en mi equipo.
Perder mi identidad profesional.
No tener espacio para pensar.
Llevo suficiente tiempo trabajando en desarrollo de talento, como para reconocer esa lista. No es una lista sobre IA (inteligencial artificial). Es una lista sobre pertenencia, sentido del trabajo y sobrecarga cognitiva.
Y esa fue la gran revelación de la sala.
La IA no fracasa en el servidor. Fracasa en el lado humano.
La industria sigue tratando la implementación de IA como si fuera una actualización de software. Elegir el proveedor. Elegir el modelo. Desplegarlo. Formar al equipo. Medir la adopción.
Pero el 83% de los proyectos de IA que fracasan no fracasan por un problema tecnológico.
Es un problema de colaboración. Es un problema de diseño humano. Es un problema de liderazgo.
En nuestra sesión se veía pasar en tiempo real. Los desarrolladores de IA en una esquina. Los diseñadores de UX en otra. Los líderes de RR.HH. en algún punto intermedio. Todos muy correctos. Cada uno enfocado en su mundo.
Repetían las mismas quejas a audiencias diferentes: objetivos poco claros, mala comunicación, falta de un propósito compartido.
Cuatro silos. Una implementación que fracasa. Ninguna sorpresa.
La voz que falta en casi todas las conversaciones sobre IA
Esto es lo que veo una y otra vez, en organización tras organización.
Cuando la IA llega a una empresa, suele haber tres grupos en la mesa. Tecnología. Estrategia. Finanzas.
Las personas que realmente entienden cómo los seres humanos aprenden, se adaptan y crecen en el trabajo —RR.HH., Desarrollo del Talento, L&D, gestores del cambio, coaches— llegan después, si es que llegan. Normalmente para "ayudar con la adopción."
Eso está al revés.
La adopción de la IA no es un tema de formación. Es un tema de cambio. Y el cambio es un tema humano.
Cuando dejamos fuera a quienes entienden la adaptación humana, no obtenemos implementaciones más rápidas. Obtenemos resistencia silenciosa, confianza erosionada y empleados bajo la presión implícita de usar IA cada día o arriesgarse a perder su trabajo, sin claridad, sin conversación real y sin un propósito compartido.
Lo que aprendimos al guardar las slides
El mejor feedback que recibimos en SXSW no fue sobre el contenido. Fue sobre el espacio.
La gente nos dijo que nuestra sesión fue la mejor a la que habían asistido, porque pudieron hablar. No darles una conferencia. No darles una guía con prompts. No venderles.
Hablar.
Margaret dijo algo a lo que llevo semanas dándole vueltas.
“La gente no necesita más prompts. Necesita espacios de reflexión.”
Espacios para decir en voz alta lo que temen.
Espacios para sentarse al lado de alguien que piensa distinto.
Espacios para darse cuenta de que la IA no es una mera transición técnica. Es una transición humana.
Si eres un líder desplegando IA en tu organización ahora mismo, te invito a sentarte un momento con cuatro preguntas antes de tu próxima iniciativa:
¿Quién está realmente en la mesa diseñando esto, y quién falta?
¿Le hemos preguntado a nuestra gente a qué le tiene miedo, y los hemos escuchado sin defendernos?
¿Estamos construyendo una transición humana o un despliegue de software?
¿El propósito de este cambio está tan claro que alguien recién incorporado podría repetirlo en una sola frase?
Si alguna de esas preguntas te incomoda, no tienes un problema de IA. Tienes un problema de liderazgo y diseño que la IA está a punto de amplificar.
El futuro pertenece a lo profundamente humano
Ese fue el tema de SXSW26. No lo inventé yo. Salía a la superficie en todas las sesiones, sin importar dónde entrases.
Incluso en un año dominado por la IA, lo que no conseguía callarse era el propósito. Lo vi en un panel de tres jóvenes CEOs al frente de Kulture City, Newman's Own Foundation y HOPE Hydration, hablando de construir organizaciones alrededor de algo más grande que ellos mismos. Lo vi en una sesión que intentó, con ciertas limitaciones, conectar el Ikigai con el sentido en el trabajo y el liderazgo. Lo escuché en las conversaciones de pasillo después de nuestra propia sesión.
En un año en el que casi todos los escenarios tocaban la IA, lo que no conseguía callarse era lo humano. Sentir que le importas a alguien, “you matter”. La confianza. El propósito. El espacio para pensar. Lo irreemplazable.
Como advirtió Nataliya Kosmyna del MIT desde uno de los escenarios, la IA hoy completa tu prompt. Mañana intentará completar tu pensamiento.
Los líderes que ganen la próxima década no serán los que tengan la mejor tecnología. Serán los que hayan construido la alianza transversal entre tecnología, diseño y desarrollo humano antes de que el resto se dé cuenta de que la necesitaban.
Y seguirán sabiendo sostener el espacio.
Si tu equipo tuviera 60 segundos y total seguridad para responder a una sola pregunta sobre el cambio que está viviendo en el trabajo ahora mismo, ¿qué crees que diría?
Me encantaría leer tu reflexión en los comentarios.

