Agrointeligencia

Alberto oikawa hispatec analytics madrid p

Mi primera idea a la hora de escribir este artículo era hablar sobre las bondades que tienen tecnologías como el Big Data, la analítica avanzada, la inteligencia artificial, etc. dado mi perfil tecnológico, pero tras una lectura de los artículos publicados en el foro, me he dado cuenta, de que quizás el tema está algo manido y ya expuesto por las valiosas opiniones de algunos de mis colegas.

Es por este motivo que el presente artículo tocará una propuesta de valor tangencial (o no tan tangencial) derivada de la ejecución de proyectos en este ámbito.

Cuando una empresa agroalimentaria se lanza a la ejecución de un proyecto de analítica avanzada, pongamos el ejemplo de una predicción temprana de producción, se lanza a la aventura de ver, analizar y catalogar todas las fuentes de información que pueden aportar valor al indicador objetivo.

Podemos hablar de tareas de manejo, muestreos, conteos, datos climáticos, inventarios plantas productivas, etc…

Muchas veces este tipo de información está distribuida, en el mejor de los casos, en distintos sistemas e incluso es algo relativamente normal que este tipo de información de campo esté albergada en distintos archivos Excel en una colección interesante de PC’s.

Si pensamos en la toma de decisiones, parece claro que en esta parte un dato como la cantidad de materia prima que voy a producir tiene un peso importante en distintas decisiones estratégicas; ¿Cuantos operarios contrato para la recolección?, ¿Cuantos embalajes compro? ¿Cuándo? ¿Cuanto podre vender?  ¿En qué momento? y un largo etc….

 

Ahora bien, ¿qué pasa si el personal no es consciente de la importancia del registro de datos?

¿Que pasa si piensan que es una tarea aburrida que no le importa a nadie? Pueden darse casos en el que el personal, copie o pegue datos de una campaña a otra o rellene de manera sistemática los formularios sin dar importancia al dato en sí, a la calidad del mismo.

Muchas veces pensamos en que el histórico de información es un factor limitante pero pocas veces pensamos en la calidad o en su defecto en la veracidad del dato. Damos por sentado que nuestros procedimientos están bien, que son correctos para recoger la información que necesitamos sin pararnos a pensar en el cambio de paradigma en el que estamos viviendo.

Queremos los datos para analizarlos y extraer conocimiento de ellos, no se trata de tener por tener y debemos pensar en el objetivo analítico de los mismos para asegurarnos de estar manejando la cantidad, las fuentes y la granularidad necesaria.

Si buscamos un indicador en función del sector de riego, debe de poder llegar a ese nivel desgranando los datos. Si me limito a recoger datos a nivel de parcela jamás podré tener un indicador a nivel de sector. Lo contrario sería magia y recordar, esto no es magia son matemáticas.

Si para la práctica de tareas de análisis partimos de información sesgada o errónea posiblemente a las conclusiones a las que lleguemos serán erróneas o tendrán sesgo con respecto a la realidad también.

Debemos concienciar a nuestra organización en todos sus niveles de la importancia de la calidad de nuestros datos. Concienciar de que como en toda cadena, la fuerza de la misma depende de lo fuerte que sea el eslabón más débil. Y en este caso, en la cadena de valor del datos, cada eslabón es vital para conseguir el objetivo principal, un indicador lo más cercano a la realidad posible.

Y es por esto por lo que las compañías deben potenciar políticas y facilitar herramientas que permitan la correcta digitalización de información en toda la cadena y a través de todos sus actores. Que además haga que la información perdure y genere conocimiento que quede para la compañía..

La ejecución de estos proyectos no solo persigue el objetivo de desarrollar un modelo analítico de mayor o menor índice de acierto si no que además embebe un servicio de auditoría sobre los datos, realizando un levantamiento de toda esta información disponible y detectando anomalías en los procesos de digitalización, en la trazabilidad y gestión de la calidad de los datos.

Alberto Oikawa

Alberto es Ingeniero Técnico en Informática por la Universidad de Alcalá.

Actualmente desempeña el rol de CTO en Hispatec Analitycs. Ha desarrollado la misma tarea en Bynse y previamente fue cofundador de Cubenube,start-up de servicios de datos y generación de información para ayudar a las empresas a tomar mejores decisiones, a través de una plataforma tecnológica de desarrollo propio basada Big Data y Cloud Computing.

Anteriormente fue director del departamento de TI del Centro de Laboratorios y Servicios Industriales de la Comunidad de Madrid que centra su actividad en la Metrología Legal

Alberto es director de programas y profesor de tecnologías BigData en entidades de formación y escuelas de negocio como la Escuela de Organización Industrial, CIFF Business School, Colegio Oficial de Ingenieros de Telecomunicaciones, etc…Oficial de Ingenieros de Telecomunicaciones, etc…