Con motivo del lanzamiento de Pulse IA 2025, seguimos contando con figuras destacadas y expertas del ecosistema digital. En esta ocasión, Susana Voces, presidenta de Adigital –la asociación empresarial que representa a la economía digital en España– comparte su hoja de ruta para una adopción responsable y competitiva de la IA: regulación inteligible, datos de calidad, talento, estándares de confianza y colaboración público-privada orientada a resultados.
¿Cómo describirías el momento de la economía digital en España y qué papel concreto puede jugar la IA en la productividad y el crecimiento en los próximos 12 meses?
La economía digital en España vive un momento de clara consolidación: en 2024 ya representó el 26% del PIB, frente al 18,7% de 2019 tal y como recoge el Informe de Economía Digital que elaboramos junto a BGC, lo que refleja un crecimiento sostenido y estructural.
En este contexto, la Inteligencia Artificial se posiciona como una palanca estratégica. De acuerdo con el Informe de la Década Digital, el 9,2% de las empresas españolas adoptan esta herramienta, superando la media europea, y según un estudio de Amazon su impacto podría alcanzar 282.000 millones de euros en 2030. En los próximos 12 meses, su adopción puede impulsar la productividad empresarial, reforzar la eficiencia del sector público y reducir la brecha entre uso y capacidad de desarrollo.
¿Qué 2–3 hitos debería priorizar el ecosistema (empresas + Administración) este año?
El ecosistema debería priorizar tres hitos fundamentales para acelerar la adopción efectiva de la IA:
- Definir estrategias claras y rediseñar procesos con IA, fomentando una cultura ágil y basada en datos.
- Invertir en talento especializado, reforzando la captación, formación y actualización constante de perfiles en IA.
- Garantizar una implementación responsable y sostenible, mediante marcos regulatorios alineados y una supervisión que asegure confianza y evolución continua.
“Checklist CEO” para 2025
Si tuvieras que dar a un CEO una lista mínima de deberes para empezar bien con IA en 2025, ¿cuáles serían (inventario de casos, gobernanza, riesgos, datos, compliance, medición de impacto)?
Lo primero es entender en qué fase se encuentra la organización. En Adigital lo organizamos en tres: una fase de productividad personal, donde lo fundamental es que en un enfoque top-down el CEO y poco a poco toda su empresa comience a utilizar las herramientas que nos ofrece la IA y aprenda cómo sacar un máximo provecho. Después, una fase de productividad organizativa o corporativa: cómo comenzamos a usar la IA de manera que esa mejora ya no es individual sino grupal. Y, por último, una fase avanzada en la que se empiezan a aprovechar otras dimensiones de la IA, gracias a las últimas tecnologías.
Por tanto, si tenemos que definir tres acciones:
- Definir un marco de utilización de herramientas de IA a lo largo de toda la organización.
- Empoderar a los equipos a que planteen soluciones que vayan más allá de la productividad.
- Nombrar a un responsable (un rol independiente como el CAIO, o dentro de las figuras ya existentes de la organización) con el rol principal de ver cómo la IA se imbrica en la empresa.
Marco regulatorio europeo, claro y accionable
Con la convergencia de AI Act, DSA/DMA, Data Act, eIDAS 2.0 y NIS2, ¿cómo traducimos esta complejidad en pasos prácticos para una empresa mediana?
Aunque pueda parecer lo contrario, arrancar con la regulación no resta competitividad, sino que la refuerza. Una implementación temprana permite a las empresas adaptarse con mayor agilidad, ganar confianza en el mercado y convertir el cumplimiento en una ventaja competitiva frente a quienes lleguen tarde.
En la práctica, esto significa traducir la normativa en pasos concretos: identificar qué marcos aplican al negocio, priorizar la adaptación de procesos críticos (datos, seguridad, identidad digital), y apoyarse en herramientas de acompañamiento y certificaciones que simplifiquen el cumplimiento, convirtiendo a la regulación en una palanca de crecimiento sostenible y de acceso a nuevos mercados.
- ¿Qué apoyo debería liderar Adigital (guías sectoriales, plantillas, talleres)?
Desde el área de Agenda Pública actuamos como nexo entre el ecosistema digital y las instituciones, representando los intereses de nuestras empresas ante gobiernos y organismos europeos. En este contexto, el mayor valor que podemos aportar es traducir la complejidad regulatoria en herramientas prácticas: guías sectoriales que expliquen cómo aplicar las normativas, plantillas que faciliten su implementación y talleres que acompañen a pymes y scaleups en el proceso.
Autorregulación y confianza: del ecommerce a la IA
España tiene tradición en autorregulación (p. ej., sellos de confianza, códigos de conducta, mecanismos de reclamación). ¿Cómo se traslada esto a sistemas de IA (transparencia, explicabilidad, auditorías, gestión de incidencias)?
Repreguntas: ¿Hace falta un sello o código de buenas prácticas en IA sectorial? ¿Qué incentivos funcionarían?
En Adigital estamos comprometidos con la transparencia y el buen gobierno de la tecnología, en línea con la agenda legislativa española y europea. Por eso, el año pasado lanzamos el certificado de transparencia algorítmica, un sistema pionero para garantizar que los algoritmos sean comprensibles, auditables y respetuosos con la privacidad.
El proceso de certificación revisa documentación técnica, casos de uso, algoritmos, datos de entrenamiento y protocolos de seguridad, acreditando así la transparencia tanto para usuarios como para clientes. Este enfoque no solo se ajusta al futuro Reglamento de IA de la UE, sino que también mejora la confianza del cliente, refuerza la reputación de las empresas y les permite anticiparse a las exigencias regulatorias.
En nuestra opinión, sellos o códigos sectoriales de buenas prácticas en IA pueden ser un gran incentivo, ya que convierten el cumplimiento en una ventaja competitiva y ayudan a las empresas a posicionarse a la vanguardia en innovación responsable.
Talento y upskilling
¿Cuáles son los 3 perfiles críticos para escalar IA en la empresa (producto, datos, compliance, change management) y qué fórmula ves eficaz: microcredenciales, bootcamps, grados duales, certificaciones?
Repreguntas: ¿Cómo reducir la brecha en pymes y fuera de hubs urbanos?
Los perfiles dependen en parte del tipo de empresa y del nivel de madurez tecnológica, pero hay tres perfiles que suelen ser críticos en cualquier proceso de escalado de inteligencia artificial:
- Responsable del producto especializado en IA, capaz de traducir necesidades de negocio en requisitos funcionales para equipos técnicos y de garantizar que la IA se incorpora con sentido estratégico al producto o servicio.
- Perfil de datos (ingeniero o científico de datos, según el caso), que entienda la calidad, trazabilidad y gobernanza de los datos, y que pueda preparar entornos robustos para alimentar modelos de IA.
- Perfil de cumplimiento y/o ética digital, especialmente importante en sectores regulados o donde hay impacto social. Este rol garantiza que la adopción de IA cumple con normativas (como el Reglamento Europeo de IA) y principios de uso responsable.
Según el tipo de organización, estos perfiles pueden residir en equipos distintos, pero la clave está en que estén bien coordinados y compartan una base mínima de conocimientos sobre IA. Lo que también parece claro es que el rol “paraguas” del CAIO tiene cada vez más importancia por la heterogeneidad de los temas en los que la IA tiene importancia.
Respecto a la fórmula formativa más eficaz… también depende. La Comisión Europea, en un informe sobre los usos prácticos de la IA en educación señalo la diferencia entre enseñar sobre IA, enseñar con la IA, y enseñar para la IA. En un contexto de negocio, las organizaciones han de contar con profesionales que sepan sobre IA (y por tanto habrán de formarse desde un punto de vista más o menos técnico), pero también para la IA (profesionales de negocio, marketing, etc.) donde el conocimiento técnico es menos relevante que el desarrollo y adquisición de habilidades y competencias relevantes para los desafíos que el uso de la IA trae consigo, como los sesgos, el uso del pensamiento computacional o la reflexión crítica.
En entornos corporativos, los programas de microcredenciales permiten actualizarse sin interrumpir la actividad laboral, y son especialmente útiles para perfiles no técnicos que necesitan entender cómo funciona la IA para tomar decisiones. Para perfiles técnicos, los bootcamps y certificaciones especializadas funcionan bien si se combinan con casos reales de la empresa. Los grados duales o másteres tienen sentido cuando se busca una transformación de fondo, por ejemplo en talento joven o reconversión profesional. Lo importante es que el aprendizaje sea modular, práctico y alineado con los retos concretos de cada sector.
En cuanto a cómo reducir la brecha en pymes y fuera de hubs urbanos, la brecha es real y creciente, especialmente en entornos no conectados a ecosistemas tecnológicos. Para reducirla, hacen falta estrategias de formación descentralizada, acompañamiento personalizado y acceso a infraestructura compartida.
En iniciativas como las de Adigital o el programa IAméricas, hemos comprobado que las pymes no necesitan cursos genéricos (más allá de una primera capa, por supuesto), sino formación orientada a casos concretos de su actividad (por ejemplo, cómo usar IA para mejorar campañas de marketing, reducir el abandono de clientes o automatizar tareas administrativas). Además, la presencia de acompañamiento humano, incluso aunque sea remoto, marca la diferencia. Herramientas como mentorizaciones, formadores sectoriales o servicios de acompañamiento personalizado ayudan a que las empresas se sientan capaces de avanzar.
Por último, es clave reforzar los nodos locales de capacitación e innovación: cámaras de comercio, asociaciones sectoriales, clústeres regionales. Si les damos contenidos actualizados, materiales didácticos de calidad y una red de expertos, pueden actuar como “multiplicadores” para llevar la IA responsable a territorios y sectores que hoy están quedando al margen.
Pymes y ecommerce: ROI rápido y real
Pregunta: En pymes y comercio electrónico, ¿qué casos de uso de IA generativa priorizarías por ROI y facilidad (contenido/SEO, atención, pricing, fraude, logística)?
Repreguntas: Un ejemplo simple con métricas (ahorro de tiempo, conversión, NPS) y una barrera típica (datos, integración, cultura).
En pymes y comercio electrónico, la IA generativa puede aportar valor inmediato en la creación de contenidos para marketing y SEO, la atención al cliente, la detección de fraude y la optimización de precios y logística. Para quienes empiezan a vender online, especialmente en mercados internacionales, esta tecnología ayuda a integrar de forma ágil contenido, comunidad y conversión, reforzando la confianza en nuevos entornos de venta como redes sociales o marketplaces.
El reto principal está en la integración con sistemas existentes y en la cultura empresarial: muchas pymes aún desconfían de delegar parte de la relación con el cliente en la IA. Por eso, el camino pasa por empezar con casos de uso simples y medibles, que permitan ganar eficiencia, mejorar la experiencia del consumidor y escalar de manera progresiva.
Scaleups e internacionalización
¿Cómo puede la IA acelerar a las scaleups españolas (go-to-market, ventas, soporte, producto) y qué frenos ves (acceso a datos, financiación, compra pública innovadora, regulación)?, ¿Qué pides a inversores y grandes corporaciones para no perder dealflow de IA nacional?
La IA es un catalizador esencial para que las scaleups escalen en producto, ventas y soporte, convirtiéndose en actores clave de un modelo productivo competitivo y tecnológico. No obstante, como señalamos en el Plan Nacional de Escalabilidad, para liberar todo su potencial es imprescindible situarlas como prioridad de la política económica y favorecer su acceso a espacios de colaboración público-privada.
Para que esto ocurra, es necesario abordar una serie de retos estructurales que ayuden a obtener la financiación necesaria en fases de crecimiento, reducir la rigidez regulatoria, impulsar la compra pública innovadora así como alinear el capital disponible con las necesidades reales de las scaleups entre otras. Superar estos desafíos es imprescindible para que la IA se convierta en una auténtica palanca de competitividad.
Infraestructura, soberanía tecnológica y proveedores
Entre cloud, open source / closed, GPUs/compute y riesgo de lock-in, ¿qué criterios prácticos recomiendas para comprar/desplegar IA con resiliencia y coste sostenible?, ¿Modelo abierto donde importe, cerrado donde convenga? ¿Cómo repartir riesgos con proveedores?
Desplegar IA de manera robusta y con visión de coste a medio plazo requiere tomar decisiones informadas en cinco dimensiones clave: infraestructura (cloud y computación), modelo (abierto o cerrado), licencias, coste energético y dependencia de proveedores. No me atrevo a dar una única respuesta, pero sí una serie de criterios prácticos que pueden guiar la toma de decisiones.
Primero, mitigar ese lock-in que mencionas desde el diseño. Siempre que sea posible, usar estándares abiertos y arquitecturas desacopladas. Incluso en tecnologías tan novedosas como la IA generativa comienzan a surgir estándares como MCP (model context protocol) que ayudan a esta toma de decisiones. Incluso si al inicio se opta por un proveedor cerrado por eficiencia o velocidad, hay que dejar documentadas rutas de salida técnica y contractual (por ejemplo, acceso a logs, exportabilidad de modelos, derechos sobre datos de entrenamiento o fine-tuning). Esto es mucho más fácil de decir que de hacer.
Después, ver si es posible escoger modelos abiertos donde importe entender, y cerrados donde convenga optimizar. Por ejemplo, en proyectos de IA donde el riesgo reputacional o regulatorio es alto (decisiones automatizadas, scoring, etc.), conviene priorizar modelos open-source o explicables (de hecho puede ser obligatorio legalmente dependiendo de los casos), que permitan auditar y adaptar. En cambio, para tareas donde prima la eficiencia (traducción, resumen, clasificación de contenido) o donde las nuevas capacidades de los modelos frontera son clave (capacidad de razonamiento avanzada, agéntica), puede ser más conveniente usar modelos cerrados y optimizados.
Tercero, elegir la nube por elasticidad, pero con control de costes. El cloud sigue siendo la mejor opción en fases iniciales o con cargas variables, pero hay que establecer límites de uso, elegir regiones optimizadas para IA, y negociar cláusulas de escalado. A partir de cierto umbral, puede ser más rentable migrar partes del pipeline a entornos híbridos o incluso on-premises, especialmente si se tienen cargas intensivas y predecibles.
Muy relacionado con este punto es el de la eficiencia energética. Tanto por razones de sostenibilidad como de costes, las empresas han de ir poco a poco dándose cuenta de los costes que supone tener uno u otro modelo en producción. E incluso plantearse casos en los que modelos locales (que se pueden instalar en nuestros propios servidores) pueden ser adecuados para muchos casos de uso.
Por último, gestionar bien el acceso a GPU/computación en aquellos casos en los que estamos entrenando o ajustando nuestros propios modelos. En estos casos, conviene planificar con escenarios de coste por fase (desarrollo, fine-tuning, inferencia), explorar opciones como reservas anticipadas, usar GPUs compartidas, y evaluar proveedores cloud emergentes
Colaboración público-privada y sandboxes
¿Qué formato de sandbox/piloto sectorial (salud, retail, turismo, financiero, administración) tendría mayor impacto en 2025 y cómo involucrar a Adigital como articulador? Repreguntas: Un piloto “rápido y valioso” que podríamos lanzar en 6 meses.
Confianza ciudadana y protección del consumidor
¿Cómo equilibrar innovación con privacidad, seguridad y transparencia para mantener la confianza del consumidor?, ¿Qué mecanismos de queja y remedio deberían existir para decisiones automatizadas?
El comercio electrónico en España sigue creciendo y según datos de la CNMC, ya superó los 95.000 millones de euros en 2024 (13,4% más que en 2023). Pero, pese a esta tendencia alcista, la confianza del consumidor sigue siendo un reto clave.
Por ese motivo, en 2003 lanzamos junto a Autocontrol el sello Confianza Online, la única entidad española que otorga el Ecommerce Europe Trustmark.
Este sello se apoya en un código de conducta que garantiza la protección de datos personales, la contratación electrónica segura, la publicidad digital responsable y la protección de menores. Además, se actualiza de forma constante para adaptarse a las normativas vigentes, equilibrando así innovación con privacidad, seguridad y transparencia.
Sostenibilidad (ambiental y económica) de la IA
¿Cómo medir y reducir la huella de proyectos de IA (eficiencia energética, coste por inferencia, uso responsable de compute) sin frenar innovación?, ¿Indicadores simples que una pyme pueda seguir?
Las organizaciones que están adoptando modelos en la actualidad han de empezar a medir esa huella, por razones de sostenibilidad y de costes. Para ello, los proveedores han de ser capaces de acceder y ofrecer la información adecuada, en modo de diferentes métricas estándar. Para ello, la Asociación Española de Normalización publicará en los próximos meses una especificación (UNE 0086) para la medición del consumo energético, huella del consumo energético y rendimiento de sistemas de Inteligencia Artificial en cuyo grupo de trabajo ha estado trabajando Adigital junto con expertos nacionales en energía, tecnología de IA y regulación.
Una vez las empresas comencemos a medir de manera habitual, podremos añadir esta dimensión a nuestra matriz de selección de proveedores, modelos, etc. Aun asi, las pymes pueden medir este impacto mediante métricas técnicas como los indicadores de eficiencia energética como el PUE (Power usage Effectiveness) o la eficacia de la utilización de la energía. Es decir, la relación entre el consumo total de energía y la energía utilizada únicamente por los equipos informáticos. Pero hay muchas otras.
Métricas-país y barómetro
Si definieras un barómetro anual de adopción responsable de IA en España, ¿qué cinco métricas incluirías (capacidad de datos, talento, casos en producción, cumplimiento, competitividad)?
Repreguntas: ¿Qué umbral nos diría “vamos por buen camino”?
Riesgos y líneas rojas
¿Cuál es la línea roja que no deberíamos cruzar con IA (sesgos, opacidad, seguridad, reputación) y cómo prevenirla desde el diseño?. Una práctica concreta de “seguridad por defecto” que recomiendes.
No existe ninguna línea roja, pero en la mayoría de los casos la privacidad o seguridad serán siempre críticos, por razones funcionales y regulatorias. En cuanto contamos con datos personales, la mitigación de sesgos se convierte también en algo muy importante, no digamos si hablamos de sectores como el educativo, el sanitario o el de políticas sociales.
Lo crucial es contar también desde el principio con un enfoque de responsabilidad por diseño. Analizar el servicio o producto que queremos construir o adoptar, no solo desde las perspectivas funcionales y económicas, sino también en cuanto estos elementos que preguntas.
¿Qué le diría Adigital a CEOs, CMOs y responsables de innovación para que participen en Pulse AI 2025 y compartan su experiencia de primera mano?
A través de programas impulsados por Adigital como DigitalXBorder en España o IAméricas en América Latina, hemos comprobado que la Inteligencia Artificial sigue siendo un reto pendiente para muchas organizaciones, al tratarse de un ámbito muy novedoso y, en gran medida, desconocido.
Para nosotros, es esencial crear espacios de encuentro donde compartir experiencias y aprendizajes, de manera que los expertos podamos unirnos y avanzar hacia un uso responsable, ético y efectivo de esta tecnología, promoviendo un acceso universal y democratizado que potencie todo su impacto transformador.
En esta línea, animamos a todos los expertos a participar en Pulse IA 2025, para contribuir a este objetivo, compartir conocimiento de primera mano y reforzar el papel de España a la vanguardia de la transformación digital.