Todos sabemos que la tecnología fue avanzando. Las plataformas se fueron sofisticando al incorporar funcionalidades que combinan otras prácticas. Y su adopción se fue generalizando. Pero una vez más, vemos como denominador común a los pilares de siempre, los activos “primarios” que necesitan o consumen las plataformas para generar valor y brindar servicio a sus usuarios:
los datos y procesos. Volvemos siempre a la fuente.
Algunos ejemplos:
Para los
proyectos de BI (Business Intelligence), a través de la implementación de arquitecturas de solución como los Data Marts, EDW (Enterprise Data Warehouse), Data Analytics, Data Lakes, entre otros, el FCE (factor crítico de éxito) consiste en contar con datos confiables y válidos. En realidad, siempre lo fue para garantizar eficiencia de los procesos y de su implementación sobre los sistemas de negocio. Pero al integrar en un entorno de BI todas esas fuentes y visiones temáticas, sin datos confiables los tableros de decisión arrastrarían los issues generando métricas poco confiables con impactos directos en la toma de decisiones.
Por otro lado, para impulsar
prácticas más recientes de automatización de procesos de la mano de RPA (Robotic Process Automation), es altamente recomendable el paso previo del discovery y revisión de ellos. ¿Por qué?
Para asegurar que estemos automatizando versiones adecuadas y homologadas de los procesos: versiones “to be”. Y tambien, para detectar los focos de automatización, a través del análisis de cuellos de botella, tareas repetitivas que no requieran intervención manual, etc.
Y eso lleva a que, para realizar un buen discovery de procesos (completo, ágil y más preciso), muchas organizaciones trabajen con
plataformas de Process Mining. Éstas necesitan conectarse a los sistemas transaccionales donde corren los procesos para tomar los datos que genera cada tarea. Con ellos, arman (construyen) los procesos “as is”, brindan información para entender su comportamiento real y conocer todas las variantes que se están ejecutando (técnicamente, toman lo que llamamos logs).
¿Qué se está sumando hoy?
Ya estamos viviendo lo que no hace tanto parecía del futuro: la IA. Está por todos lados. Lo que antes era un tema que se estudiaba en el aula de las carreras tecnológicas, se implementaba en SW puntuales o en organizaciones con iniciativas más avanzadas, ya se está incorporado en múltiples soluciones y elementos que utilizamos en la vida cotidiana. Ya está en las empresas en diversas soluciones, en las apps de nuestros dispositivos, y volvió al aula en “modo uso”.
¿Cuál es la materia prima para la IA, con lo que
nutrimos sus modelos? Los datos. ¿
Qué brindan como resultado? ¿Qué
consumen muchos usuarios de estas apps de IA? Más datos.
El avance tecnológico, y el crecimiento de su uso, ya sabemos que es exponencial. (me recuerda la ley de Moore .. en algún momento) El crecimiento en cuanto al volumen y diversidad de datos también lo es
. Los riesgos e issues respecto a la disponibilidad y calidad de los datos y procesos como materia prima para los servicios que nos provee la tecnología,
pueden aumentar e impactar de manera proporcional a su avance.
Para ser más específica: un set de datos erróneo en un tablero de un área, impacta en las decisiones para esa empresa.
Un set de datos erróneos que nutre el modelo de IA de una app que se encuentra disponible para descargar en tu celular…¿a cuántas personas podrá llegar a alcanzar?
¿Cómo estamos hoy parados y que se viene?
Las claves para estar preparados para contar con datos de calidad y atenuar issues como los antes mencionados, se encuentran:
- De la mano de las buenas prácticas metodológicas
- Bajo la adopción de una arquitectura actualizada, que brinde el soporte adecuado a las necesidades actuales y futuras
- IA Literacy
En cuanto a los datos, la lente debe estar enfocada en integración y buenas prácticas de governance para todo su ciclo de vida. Estas metodologías hoy cuentan con plataformas preparadas para ello, que facilitan y hacen tangible llevarlas a la práctica, como pueden ser las herramientas de Catálogo.
La arquitectura empresarial sigue siendo protagonista: revisando las necesidades de negocio e issues (actuales y futuros), las tendencias tecnológicas, detectando gaps con la arquitectura actual y definiendo las acciones para cerrar esa brecha.
Elegir herramientas a la altura de las necesidades actuales y desafíos futuros.
No menos importante, lo que en las últimas
tendencias de Datos y Analytics en Qlik mencionan como
“IA Literacy”. Ya no basta con tener habilidades y cultura orientada al dato. Es clave que las personas desarrollen
skills para conocer bien de qué se trata y qué tener en cuenta a la hora de elegir y usar una solución con IA, de consumir datos generativos (generados por la IA), y cómo aprovechar todo su potencial y beneficios.