David Alayón CEO y cofundador de Innuba

David Alayón (Innuba): «La IA es cultural, organizativa y estratégica»

En el marco de Pulse AI 2025,  hablamos con David Alayón, CEO y cofundador de Innuba, profesor en IE y Headspring, inversor, co-autor del libro “Upgrade: desarrolla un perfil a prueba de futuro” y una de las voces más relevantes en foresight, innovación y tecnologías disruptivas. Su mirada conecta estrategia, ética, impacto y futuros preferibles, un enfoque esencial para entender el papel de la IA hoy.

Desde tu experiencia en innovación y foresight, ¿cómo definirías el momento actual de la IA? ¿Estamos en un punto de inflexión real o todavía en una fase más exploratoria y de hype?

Desde mi punto de vista, estamos en un momento bisagra real, aunque no exactamente por la novedad de la tecnología. Me gusta decir que hay hype en la IA pero la IA no es un hype. Se trata de una tecnología muy sólida, con décadas de recorrido, que lleva tiempo formando parte de sistemas complejos, aunque de manera menos visible. Lo que ha cambiado de forma radical en los últimos años, especialmente con la IA Generativa, es su accesibilidad, velocidad y capacidad de interactuar con el lenguaje humano, y eso ha disparado tanto su adopción como el ruido alrededor.

Dicho esto, sí estamos viviendo una fase de sobre-expectación importante, sobre todo en el discurso, en la narrativa. Muchas organizaciones piensan que la IA va a resolver retos complejos con un clic, y confunden implementar herramientas con transformarse de verdad. Hay una mirada todavía muy tecnocéntrica, muy enfocada en la automatización de tareas o en “meter IA” en procesos existentes, cuando el verdadero reto está en repensar modelos y estructuras organizativas, al igual que competencias y capacidades.

El punto de inflexión no es técnico, es cultural, organizativo y estratégico.

Por último, echo en falta una conversación más profunda sobre aumentación frente a automatización. Hay una obsesión excesiva por sustituir tareas y muy poca por crear entornos donde la IA nos ayude a pensar mejor, a tomar decisiones más informadas y a desarrollar pensamiento crítico. Muy pocas empresas están trabajando la IA como una infraestructura de apoyo a la inteligencia humana, y precisamente ahí es donde veo uno de los mayores diferenciales competitivos de los próximos años.

IA, disrupción y futuros posibles

Cuando trabajas con organizaciones, ¿qué señales débiles o tendencias emergentes relacionadas con la IA crees que van a influir más en la forma de hacer negocio los próximos 3–5 años?

Cuando trabajo con organizaciones, veo varias señales de cambio que todavía son débiles, pero que van a tener un impacto muy profundo en los próximos 3–5 años. La primera es el paso de herramientas de IA aisladas a sistemas integrados en el día a día del trabajo, no como usos puntuales o experimentales, sino como capacidades hibridadas con las personas. Me gusta mucho la metáfora del centauro de Kasparov: no humanos contra máquinas, ni máquinas sustituyendo a humanos, sino humanos e inteligencias artificiales trabajando juntos de forma complementaria.

Este enfoque obliga a rediseñar procesos completos, no solo a añadir copilotos sobre lo que ya existe. En esa misma línea, estamos viendo cómo la IA ha nacido muy orientada al uso individual, uno a uno, una persona y su asistente o copiloto, pero el verdadero salto vendrá cuando empiece a potenciar la colaboración, el trabajo en equipo y la inteligencia colectiva. Veremos cada vez más herramientas diseñadas para facilitar decisiones compartidas, co-creación y coordinación entre múltiples actores, dando lugar a perfiles aumentados que no solo saben usar IA, sino orquestarla en contextos organizativos complejos.

Otra señal clara es el aumento del grado de automatización de procesos completos, especialmente en ámbitos como atención al cliente, marketing, compras o sistemas de recomendación. El auge de la IA agéntica será clara y será muy eficiente en un amplio abanico de casos, pero también nos obligará a definir con cuidado dónde tiene sentido automatizar y dónde es imprescindible mantener a personas en la supervisión y toma de decisiones (human in the loop). Aquí aparecerán dilemas éticos, reputacionales y de experiencia de cliente que muchas organizaciones aún no están preparadas para gestionar.

Y finalmente, una señal que quizá es menos visible pero estructural, y es la necesidad de revisar los principios sobre los que operan y priorizan las organizaciones. Históricamente, muchas han estado centradas en maximizar beneficios y responder casi exclusivamente a los accionistas. La IA puede amplificar ese enfoque de forma exponencial, pero la pregunta clave es: ¿bajo qué premisas y a qué coste social o humano?

Creo que estamos entrando en una etapa en la que las organizaciones que lideren serán aquellas que se centren en crear valor real y sostenible, no solo en eficiencia económica. Este cambio se verá reforzado por una redefinición del concepto de trabajo y por un relevo generacional que trae nuevas expectativas sobre propósito, impacto y sentido.

 Cultura, liderazgo y mental models

La IA no solo exige nuevas herramientas, sino nuevas maneras de pensar. ¿Qué cambios en cultura, liderazgo y mental models ves imprescindibles para que una empresa pueda integrar la IA con éxito?

Para integrar la IA con éxito, el cambio cultural más importante no es tecnológico, sino cognitivo. Las organizaciones necesitan cultivar una cultura de adaptación constante y flexibilidad mental, asumiendo que el contexto va a cambiar más rápido de lo que cualquier plan estratégico puede anticipar. Esto implica normalizar el aprendizaje continuo, la revisión de supuestos y la capacidad de ajustar el rumbo sin vivirlo como un fracaso. La IA introduce velocidad, incertidumbre y ambigüedad, y solo las culturas que saben moverse cómodas en ese terreno pueden aprovecharla de verdad.

En este punto, la metáfora del centauro vuelve a ser muy útil. La hibridación humano-IA funciona cuando la parte humana sigue siendo la cabeza, es decir, donde reside el criterio, la intención y la responsabilidad. El riesgo aparece cuando pasamos de centauros a minotauros: cuando delegamos nuestra cognición, nuestro juicio y nuestra capacidad crítica en sistemas que no los tienen. Ya estamos empezando a ver señales preocupantes, con estudios que apuntan a la pérdida de pensamiento crítico, al cognitive offloading excesivo y a la acumulación de lo que algunos llaman cognitive debt: cuanto más dejamos de pensar por nosotros mismos, más difícil se vuelve hacerlo después. Es clave entender que la IA es extremadamente útil, pero no tiene un punto de vista, un propósito ni una experiencia vivida.

No entiende el contexto como lo hace un humano, ni comparte valores, ni intención. En muchos casos sigue funcionando como un “loro estocástico”: predice la respuesta más probable a partir de patrones previos.

Si no somos conscientes de esto, corremos el riesgo de atribuirle una inteligencia o comprensión que no tiene. Además, estos sistemas reproducen sesgos existentes en los datos… Y también generan otros nuevos, como el sesgo de automatización, por el cual tendemos a confiar más en una recomendación automática incluso cuando nuestra intuición o experiencia nos dice lo contrario. Por eso, el liderazgo en la era de la IA no consiste en delegar decisiones en máquinas, sino en saber cuándo apoyarse en ellas y cuándo no.

Las organizaciones que integren mejor la IA serán aquellas que fomenten una cultura de pensamiento crítico, cuestionamiento y responsabilidad humana. No se trata de pensar menos, sino usar la IA para pensar mejor.

Talento aumentado y re-skilling

En tus formaciones hablas mucho de “aprender a aprender” y del profesional a prueba de futuro. ¿Qué capacidades deberían estar desarrollando hoy los equipos para trabajar de forma aumentada con IA?

La IA no viene a sustituir las capacidades humanas, sino a potenciarlas, sobre todo aquellas que son realmente a prueba de futuro. Por defecto, la IA funciona como un sistema experto: es muy buena accediendo a conocimiento, reconociendo patrones y generando respuestas plausibles. Pero necesita, necesariamente, de la parte humana para pensar de forma crítica, interpretar el contexto, entender las consecuencias y tomar decisiones con sentido.

Por eso, el foco del re-skilling no debería estar en aprender herramientas concretas, sino en fortalecer capacidades cognitivas y estratégicas que la tecnología no puede replicar. Entre esas capacidades destacaría el pensamiento crítico, para no delegar el criterio en la máquina; el pensamiento sistémico, para entender cómo una decisión impacta en un conjunto más amplio; y la capacidad de aprender a
aprender, incorporando nuevo conocimiento de manera más efectiva y desaprendiendo lo que deja de ser útil.

A esto se suma una mirada más a largo plazo, con capacidad de anticipación, algo especialmente relevante en un entorno donde la velocidad tecnológica puede empujarnos a decisiones cortoplacistas. En este contexto, creo que el profesional a prueba de futuro se parece cada vez más a un neo-generalista. No alguien que sabe una cosa en profundidad, un hiper- especialista aislado, o un perfil generalista sin un conocimiento profundo en ningún área, aunque tenga muchas habilidades blandas. Sino un perfil con amplitud y profundidad, capaz de conectar disciplinas, con un conocimiento suficiente de muchos ámbitos y una o varias áreas de expertise donde sí tiene profundidad y criterio.

Este equilibrio permite dialogar con sistemas de IA de forma más rica y tomar mejores decisiones. De esta evolución surgen nuevas competencias clave, como el pensamiento interdisciplinar, que permite conectar conocimientos de distintos ámbitos para comprender mejor problemas complejos; o la orquestación cognitiva, entendida como la capacidad de combinar inteligencias humanas y artificiales de forma estratégica pero también práctica.

Innovación e impacto

Desde Innuba trabajáis con tecnología humanista y proyectos de impacto. ¿Qué papel crees que debe jugar la IA en la construcción de futuros más sostenibles, éticos y centrados en las personas?

La IA puede y debe ser un acelerador de impacto positivo, pero solo si se diseña y se utiliza con conciencia e intención. Bien aplicada, tiene un enorme potencial para mejorar la vida de las personas: desde apoyar diagnósticos médicos más tempranos y precisos o acelerar descubrimientos científicos, hasta transformar la educación mediante asistentes personalizados que acompañen a cada estudiante en una ratio casi 1:1 u optimizar la gestión de recursos.

También puede democratizar el acceso a la información, reducir barreras de entrada a la innovación y permitir el desarrollo de prototipos y soluciones a muy bajo coste, algo especialmente relevante para emprendedores, ONG o contextos con recursos limitados. Sin embargo, si la IA no se usa bien, puede convertirse en un amplificador de desigualdades existentes. Existe el riesgo de que se abra una nueva brecha dentro de la brecha digital: personas y organizaciones aumentadas por IA frente a otras que no tienen acceso, capacidades o contexto para aprovecharla.

Además, los sistemas de IA pueden perpetuar sesgos presentes en los datos, distorsionar la toma de decisiones y generar consecuencias no deseadas si no existe una supervisión humana clara. Por eso, el enfoque de “human in the loop” no es una opción ética, sino una necesidad operativa. También es fundamental mirar más allá de la tecnología y preguntarse quién está detrás de estos sistemas. Las IAs no existen en el vacío: responden a intereses empresariales, marcos regulatorios concretos y decisiones de diseño que influyen en cómo se comportan y qué incentivos refuerzan.

Entender estas dinámicas, qué datos se usan, bajo qué regulaciones operan o qué modelos de negocio las sostienen, es clave para evaluar su impacto real y evitar una adopción ingenua o acrítica. Desde Innuba defendemos una visión de tecnología humanista, donde la IA se pone al servicio de las personas y no al revés. Eso implica diseñar desde el propósito y hacernos siempre la misma pregunta: no solo si algo es técnicamente posible, sino si es socialmente deseable y responsable a largo plazo.

La tecnología no es neutral y lo verdaderamente peligroso es no decidir conscientemente cómo la utilizamos.

Nuevos modelos de creación, diseño y desarrollo

¿Cómo crees que la IA está transformando los procesos de diseño, creatividad e innovación? ¿Estamos ante una ampliación del potencial humano o ante una redefinición completa de los roles?

Estamos, claramente, ante ambas cosas: una ampliación radical del potencial humano y, al mismo tiempo, una redefinición profunda de los roles. La IA se ha convertido en un gran acelerador de los procesos de diseño, creatividad e innovación, no solo por velocidad, sino también por calidad. Cuando hablamos de creatividad o innovación aumentada, nos referimos a entender la IA como un integrante más del equipo, capaz de procesar grandes volúmenes de información de investigación, detectar patrones con mayor solidez, extraer hallazgos, generar un abanico mucho más amplio de ideas y prototipar de forma ágil y a bajo coste.

Esto cambia de forma significativa la dinámica de los procesos. Históricamente, una gran parte del tiempo se dedicaba a la producción: diseñar, redactar, maquetar, desarrollar. Hoy, gracias a la IA, esa capa se acelera enormemente, lo que permite reequilibrar el esfuerzo hacia fases más estratégicas como la investigación, la definición del problema, la priorización o la validación. En lugar de reducir la calidad del trabajo, bien utilizada, la IA libera tiempo y energía cognitiva para pensar mejor y tomar decisiones más informadas.

Este cambio tiene un impacto directo en los roles profesionales. El valor está en dar dirección, contexto y sentido. Diseñadores, creativos e innovadores pasan a desempeñar un papel más cercano al de curadores, estrategas o editores de posibilidades. La interacción con la IA se convierte en una conversación continua, donde guiar, orientar, corregir y aportar criterio es más importante que producir el primer resultado.

En este nuevo escenario, el resultado que obtenemos de la IA es directamente proporcional a la calidad de nuestras preguntas y a la claridad de nuestro marco mental. Saber formular bien un problema, mantener una conversación rica con la herramienta y evaluar críticamente sus propuestas se vuelve una competencia central. Por eso, más que hablar de sustitución de roles, estamos hablando de una evolución del trabajo creativo e innovador, donde la inteligencia humana y la artificial se potencian mutuamente para llegar más lejos.

Riesgos, límites y gobernanza

Entre empresas ves desde entusiasmo hasta preocupación. ¿Cuáles son, desde tu perspectiva, los riesgos más relevantes a abordar en 2025 y cómo deberían gestionarse para no frenar la innovación?

Desde mi perspectiva, los riesgos más relevantes en 2025 no son únicamente tecnológicos, sino cognitivos, organizativos y sociales. Por un lado, existe el peligro de una delegación excesiva en la IA que termine erosionando capacidades humanas clave: criterio, pensamiento crítico o responsabilidad en la toma de decisiones. Por otro, están las externalidades negativas que pueden surgir cuando se automatizan decisiones sin una conciencia clara de su impacto, especialmente en contextos sensibles como personas, derechos, acceso a servicios o reputación.

El riesgo no está en usar IA, sino en hacerlo sin intención ni supervisión. En cuanto a los límites, creo que hoy el mayor valor de la IA está en la mejora interna de las organizaciones: productividad, eficiencia, aprendizaje y aumentación de capacidades. Cuando la IA generativa se expone hacia fuera, de cara a clientes, usuarios o ciudadanos, aparecen todavía limitaciones importantes: alucinaciones, falta de control, respuestas inconsistentes o dificultades para garantizar trazabilidad y responsabilidad. Es cierto que están surgiendo técnicas muy prometedoras que mitigarán muchos de estos problemas en los próximos años, pero a día de hoy conviene ser prudentes y selectivos en los casos de uso externos.

Desde el punto de vista de la gobernanza, estamos en un momento clave de transición. Muchas organizaciones siguen operando con pilotos aislados, impulsados por áreas concretas, sin una visión común ni una estructura clara. Esto genera ineficiencias: duplicación de esfuerzos, desigualdades entre equipos, dificultades para escalar soluciones validadas o bloqueos por falta de alineamiento estratégico. No hay nada más frustrante que demostrar el valor de un piloto y no poder llevarlo a escala por ausencia de marco organizativo.

Por eso, más que frenar la innovación, la gobernanza debería habilitarla. Hablamos de establecer principios claros, modelos de decisión compartidos, criterios éticos operativos y espacios de experimentación segura que permitan aprender rápido sin asumir riesgos innecesarios. Regular bien no significa ir más despacio, sino avanzar en la dirección correcta, maximizando el valor colectivo y minimizando impactos no deseados.

¿Por qué consideras relevante una iniciativa como Pulse AI y por qué animarías a las compañías a participar en la edición 2026?

Creo que iniciativas como Pulse AI son especialmente relevantes porque ayudan a construir contexto, algo imprescindible en un momento tan acelerado como el actual. Escuchar perspectivas diversas de profesionales que trabajan la IA desde ámbitos distintos como estrategia, negocio, tecnología, impacto o cultura, permite ir más allá de la herramienta y entender cómo se está usando realmente, qué aprendizajes están emergiendo y dónde empiezan a aparecer oportunidades o límites.

Ese ejercicio colectivo es clave para identificar tendencias, contrastar casos de uso y generar benchmarks con sentido. Además, Pulse AI apuesta por un formato que hoy es casi contracultural: la conversación en profundidad. Entrevistas que invitan a parar, a reflexionar y a conectar ideas, en lugar de reaccionar de forma impulsiva a la última novedad tecnológica. En un entorno dominado por la urgencia, el titular rápido y la promesa inmediata, crear espacios para el pensamiento pausado es, en sí mismo, un acto de liderazgo.

Animaría a las compañías a participar porque el futuro de la IA no se diseña desde la certeza individual, sino desde el aprendizaje compartido. Iniciativas como Pulse AI permiten ampliar la mirada, cuestionar supuestos propios y tomar mejores decisiones estratégicas, no solo más rápidas. Y eso, en el contexto actual, marca una diferencia enorme.