Human-IA arranca en UDIT con una primera sesión sobre el poder invisible de los datos
El pasado 18 de noviembre, el Campus de Tecnología, Innovación y Ciencias Aplicadas de UDIT, Universidad de Diseño, Innovación y Tecnología, celebró la primera sesión de Human-IA, una serie de encuentros tecnológicos organizados por el Máster en Inteligencia Artificial y que nace con el propósito de conectar a empresas innovadoras, expertos del sector y comunidad universitaria, en un espacio de diálogo abierto sobre el impacto real de la inteligencia artificial y el papel esencial de las personas en su desarrollo.
La primera sesión, titulada “El poder invisible de los datos”, abordó cómo la gestión y calidad del dato se han convertido en la base sobre la que se construye el futuro de la Inteligencia Artificial.
Presentado por Fernando Blázquez, director del Grado en Ciencia de Datos e Inteligencia Artificial de UDIT, el evento contó con la participación de Iñaki Tabernero, CIO de IndesIA, Diego Morales Cordera, Business & Data Strategy Advisor en Turing Challenge y Neus Alcolea, abogada especializada en propiedad intelectual e inteligencia artificial en Loyra Abogados.
Abrió el evento la intervención de Iñaki Tabernero, quien explicó que la industria española está en un punto de inflexión en cuanto a la adopción de soluciones de Inteligencia Artificial y cómo IndesIA se configura como un espacio en el que acompañar a las organizaciones a acelerar en este salto estratégico.
En este sentido, subrayó que la competitividad industrial depende cada vez más de la automatización, la eficiencia energética y la economía circular, y que IndesIA quiere liderar este cambio ofreciendo casos de uso, formación STEM, mecanismos para agilizar la digitalización y un entorno que reduzca los riesgos de adoptar nuevas tecnologías.
“Es el momento de las empresas españolas: tenemos el conocimiento, tenemos el talento y contamos con un ecosistema capaz de convertir la Inteligencia Artificial en una verdadera palanca de crecimiento” afirmó.
¿Por qué fracasan los proyectos de Inteligencia Artificial en las empresas?
Tras la intervención del CIO de IndesIA, Diego Morales Cordera analizó los factores que determinan el éxito o fracaso de los proyectos de IA, destacando la necesidad de alinear la estrategia tecnológica con los objetivos reales de negocio.
Explicó Diego que el éxito de cualquier iniciativa de IA se basa en tres pilares: “disponer del dato bruto, establecer una sólida gobernanza sobre este, y poseer el conocimiento del negocio para interpretarlo y aplicarlo correctamente”.
Sin embargo, la adopción enfrenta una dura realidad: si bien más del 80% de las organizaciones han explorado o desarrollado un proyecto piloto basado en IA Generativa, “un alarmante 95% de estos pilotos no logran generar un Retorno de Inversión (ROI) medible”. Esta cifra pone de manifiesto una profunda brecha de adopción, donde la velocidad de innovación de los proveedores supera la capacidad de los clientes para obtener resultados de negocio tangibles.
Tal y como enfatizó el experto de Turing, el principal obstáculo para cruzar esta brecha y generar valor real es el "MVP Wall" o la barrera que separa los experimentos y pruebas de concepto (PoCs) de la implementación y el impacto a escala. El fracaso en muchos casos se encuentra no tanto en factores técnicos, sino en organizacionales y estratégicos.
Así, en muchas empresas, los proyectos de IA son impulsados por las capas altas de la organización mediante una estrategia Top-down, considerándose a menudo como “una solución en búsqueda de un problema, desconectados de las necesidades del negocio y careciendo de un claro vínculo con los problemas reales”. Esta falta de propósito y rendición de cuentas clara entre los equipos de negocio y tecnología hacen que los pilotos se queden en la fase de demo, con expectativas poco realistas y sin la usabilidad o el valor comercial necesario para escalar. ¿Qué hacer entonces?
Diego Morales cuenta que para que la IA deje de ser un experimento y se convierta en un producto viable, las empresas deben adoptar un Plan Director IA que aborde la especialización, la comprensión profunda del dominio y la claridad en el ROI.
La solución en este sentido reside en un cambio de paradigma hacia una estrategia donde “el liderazgo apoya iniciativas basadas en necesidades de negocio validadas”. Este plan se basa en seis pilares clave que van desde un Blueprint Estratégico que vincula la IA con las prioridades de negocio, hasta la implementación de un Gobierno de IA y el desarrollo de la Cultura necesaria para su adopción. “Solo asegurando que el negocio y la tecnología vayan de la mano, con PoCs definidos para escalar y con metas claras”, concluye Diego Morales, “las organizaciones podrán construir flujos de datos y rediseñar procesos de manera "AI First" para obtener una ventaja competitiva sostenible”.
De los datos al modelo: fundamentos legales de la IA
En la última de las ponencias, Neus Alcolea abordó algunos de los principales aspectos legales que intervienen en el entrenamiento de sistemas de inteligencia artificial, desde la obtención y uso de datos, hasta la protección de derechos de autor y privacidad.
A lo largo de su presentación explicó que el verdadero "combustible" de la Inteligencia Artificial, especialmente de la IA Generativa, reside en la “calidad y el origen de sus datos de entrenamiento”. Más allá incluso, subrayó que la validez y sostenibilidad de cualquier sistema de IA dependen directamente de la legalidad de los datos que lo nutren.
Esto ha llevado a la IA al epicentro del debate legal con la presentación de demandas significativas, como las de Getty Images contra Stability AI o The New York Times contra OpenAI, que cuestionan el uso masivo de contenido protegido por Propiedad Intelectual a través de web scraping, para entrenar modelos. “La pregunta central que emerge es clara: ¿cómo se nutre la IA, con qué licencias y qué límites legales existen a su uso?”.
Para abordar esta cuestión, Neus Alcolea explicó que el marco legal establece una distinción fundamental entre la protección de la obra y la protección de la persona. Por un lado, la Propiedad Intelectual es el mecanismo que ampara la forma y expresión (el software, el modelo y el output), protegiendo las creaciones.
Por otro lado, la protección de datos personales está regida por el RGPD y la LOPD, y se activa con la clave de la identificabilidad de una persona física, exigiendo una base de legitimación y la supervisión de la AEPD. Así los datos personales y los datos no personales (anonimizados de forma irreversible o agregados) quedan sujetos a marcos regulatorios distintos, siendo estos últimos más flexibles, mientras que el concepto de "identificabilidad" es “el límite crucial que diferencia ambos regímenes legales”.
Ante la necesidad de establecer orden en este nuevo ecosistema, el Reglamento Europeo de IA (RIA/AI Act) introduce un nuevo paradigma de transparencia y responsabilidad. Aunque la normativa no modifica directamente la ley de Propiedad Intelectual, sí impone obligaciones que fuerzan su cumplimiento. Entre las medidas clave, se exige a los desarrolladores de modelos la Obligación de Transparencia, que implica documentar los conjuntos de datos utilizados para el entrenamiento, permitiendo a los titulares de derechos verificar si sus obras han sido empleadas.
“En última instancia”, concluye la experta, “el futuro de la IA exige que los desarrolladores superen el web scraping indiscriminado, optando por una rigurosa gobernanza de datos y la documentación completa, para asegurar la validez legal y la confianza pública en sus sistemas”.
Como se hizo evidente al final de la sesión, los datos son ese nuevo petróleo que alimentan (cada vez más), los flujos de decisión de los algoritmos y por lo tanto, el de las organizaciones que necesitan tomar decisiones informadas para mantener su competitividad. Su poder “invisible” (aunque cada vez más visible), es el que marca el ritmo de transformación de cualquier sector, condicionando cómo se innova, cómo se compite y cómo se anticipan los cambios que vienen.
