Un estudio global de SAS e IDC revela que las organizaciones que priorizan la IA confiable duplican su ROI, mientras muchas siguen ignorando prácticas éticas y de gobernanza
La inteligencia artificial (IA) está transformando la forma en que operan las empresas, pero su evolución plantea una paradoja inquietante: mientras la confianza en la IA generativa crece aceleradamente, las inversiones en medidas de seguridad, gobernanza y ética siguen rezagadas. Así lo revela el informe global IDC Data and AI Impact Report: The Trust Imperative, encargado por SAS, líder en analítica e inteligencia artificial.
IA generativa: más confianza, menos protección
El estudio, basado en una encuesta a 2.375 líderes de TI y negocio en cinco regiones del mundo, muestra que:
- El 48 % de los encuestados confía plenamente en la IA generativa
- Solo el 40 % de las organizaciones invierte en prácticas que garanticen IA confiable
- Las empresas que sí lo hacen tienen 60 % más probabilidades de duplicar su retorno de inversión
Paradójicamente, la IA generativa —como ChatGPT— se percibe como 200 % más confiable que la IA tradicional, a pesar de que esta última es más explicable, estable y consolidada.
“Las formas de IA con interacción humana y familiaridad social generan mayor confianza, independientemente de su precisión real. Debemos preguntarnos si la IA generativa es realmente confiable o simplemente inspira confianza.” — Kathy Lange, Directora de Investigación en IA y Automatización, IDC
Principales preocupaciones: privacidad, transparencia y ética
Aunque la confianza en tecnologías emergentes como la IA generativa y los agentes de IA es alta, los encuestados expresan inquietudes sobre:
- Privacidad de los datos (62 %)
- Transparencia y explicabilidad (57 %)
- Uso ético de la IA (56 %)
Incluso la IA cuántica, aún en fase inicial, empieza a generar confianza: el 26 % de los líderes afirma tener plena confianza en esta tecnología, aunque sus aplicaciones reales aún son limitadas.
La brecha entre confianza declarada y prácticas responsables
El estudio revela un desajuste preocupante:
- El 78 % de las organizaciones afirma confiar plenamente en la IA
- Solo el 2 % ha desarrollado un marco de gobernanza
- Menos del 10 % tiene una política de IA responsable
Este déficit de protección ética y gobernanza puede limitar el impacto real de la IA y frenar el retorno de inversión a largo plazo.
Líderes vs. seguidores: el valor de la IA confiable
Los analistas de IDC identificaron dos perfiles organizacionales:
- Líderes en IA confiable: invierten en prácticas éticas, gobernanza y tecnología robusta. Tienen 1,6 veces más probabilidades de duplicar su ROI.
- Seguidores: confían en la IA, pero no implementan medidas que respalden esa confianza.
Datos: el pilar olvidado de la IA
La calidad y gobernanza de los datos son esenciales para el éxito de la IA. Sin embargo, el estudio identifica tres grandes obstáculos:
- Infraestructuras de datos débiles (49 %)
- Falta de gobernanza de datos (44 %)
- Escasez de talento en IA (41 %)
Además, el 58 % de los encuestados señala dificultades para acceder a fuentes de datos relevantes, mientras que el 49 % menciona preocupaciones sobre privacidad y cumplimiento regulatorio.
“La confianza en la IA es imprescindible. Para lograrla, debemos aumentar la tasa de éxito de las implementaciones, revisar los resultados con espíritu crítico y capacitar a las personas para trabajar con esta tecnología.” — Bryan Harris, CTO de SAS
Conclusión: la confianza debe construirse, no asumirse
La adopción acelerada de la IA generativa exige una reflexión profunda sobre su gobernanza, ética y seguridad. Las organizaciones que invierten en IA confiable no solo protegen sus operaciones, sino que maximizan su retorno de inversión y fortalecen la confianza de sus clientes y empleados.
Más información disponible en el informe completo y en el debate en vivo en LinkedIn moderado por Nicholas Thompson, CEO de The Atlantic, con la participación de SAS, Deloitte e IDC.