Tal y como se destaca desde Setesca, los procesos de implantación de inteligencia artificial deben tener una buena base para poder implantarse de forma efectiva. Esto quiere decir que es necesario que, previamente, los datos sean coherentes con el fin de poder efectuar procesos analíticos avanzados. De hecho, según un estudio reciente realizado por Gartner estima que aquellas grandes organizaciones que dispongan de una mala calidad de datos, tienen un promedio de 15 millones de pérdidas al año.
Datos de base incorrectos
“Asumamos un sistema de Inteligencia “natural. ¿Usted o alguien puede tomar decisiones correctas si su base de información es incorrecta? No. Pues lo mismo sucede con los sistemas de inteligencia artificial” afirma Jordi Damià, CEO de Setesca. De hecho, según datos de la consultora Experian, el 77% de las empresas cree que su resultado final se ve afectado por datos inexactos e incompletos. Además, este mismo estudio revela que el 66% de las compañías carece de un enfoque coherente y centralizado de la calidad de los datos. En este contexto, tal y como advierte el experto, muchas compañías, a la hora de lanzar proyectos de inteligencia artificial, invierten mucho tiempo y esfuerzo sin resultado, ya que sus modelos de información no son todo lo coherentes que esperaban. Y, no sólo eso, sino que perciben que muchos de los supuestos sobre los que tomaban decisiones son incorrectos. Estas situaciones son muy comunes en entornos donde se han producido procesos de integración de compañías, existen diferentes sistemas de reporting o analíticos o sistemas con datos provenientes de diferentes fuentes.
El 50% de las compañías no dispone de una base correcta de datos
La incoherencia se muestra cuando los analistas de datos tienen dificultades para comparar datos o se encuentran con “agujeros” de información. Se estima que estas situaciones suelen suceder en un 50% de las compañías. Todo ello dificulta enormemente los procesos de analítica avanzada o incluso llega a enmascarar problemas graves de negocio. Es posible que, por ejemplo, los resultados con los que trabaja ventas o marketing pueden ser diferentes a los que trabaja finanzas. Esta situación provoca, por ejemplo, que en los proyectos de implantación de sistemas de reporting avanzado o análisis predictivo, un 80% del esfuerzo se dedique a depurar la información y solamente un 20% al proceso analítico.
Ahorro de las empresas al depurar la información
La oportunidad está en el ahorro que las empresas pueden conseguir depurando esta información. Solamente, en la simplificación de procesos de análisis el ahorro es enorme. Además, se consigue que toda la organización trabaje bajo los mismos principios. Estos procesos de depuración de la información se han mejorado mucho gracias a la aparición de herramientas de tipo RPA y de análisis avanzado de información.
|