Un proveedor acuícola tenía 6.000 sensores y monitoreo en tiempo real. Le construimos la IA que convirtió eso en un producto que se vende.

Un proveedor con 6.000 sensores IoT tenía monitoreo en tiempo real pero decisiones reactivas. Construimos un modelo de Machine Learning que predice la curva de oxígeno del día siguiente — y lo empaquetamos como API comercializable. Así se ve la analítica predictiva cuando entrega valor real.

Modelo de Machine Learning para predicción de oxígeno en acuicultura. Caso Datalized

Cómo transformamos datos de sensores IoT de la industria salmonera en un modelo predictivo empaquetado como API, y lo que eso significa para cualquier operación que hoy tiene datos pero sigue tomando decisiones reactivas.

Tener datos no es lo mismo que usarlos.

Hay empresas con cientos de sensores midiendo variables críticas cada 5 minutos, , alertas configuradas. Y aun así, las decisiones operacionales llegan tarde, porque el dato se usa para registrar lo que pasó, no para anticipar lo que va a pasar.

Esa diferencia entre monitorear y predecir, es donde vive la analítica predictiva. Y es una oportunidad que la mayoría todavía no está aprovechando.


Cuando el oxígeno no avisa

En un centro de cultivo acuícola, el oxígeno disuelto en el agua lo gobierna todo. Cuando baja, los peces dejan de comer. Si nadie actúa a tiempo, dejan de crecer. En casos extremos, mueren.

Nuestro cliente, un proveedor relevante de monitoreo para la industria salmonera, presente en el 90% de las salmoneras de Chile, tiene una infraestructura de captura envidiable:

  • ~6.000 sensores midiendo oxígeno, salinidad, humedad y mareas cada 5 minutos
  • ~250 centros de cultivo monitoreados
  • ~48 centros de engorda con sistemas de inyección de oxígeno
  • ~45 pisciculturas

El dato llegaba en tiempo real. Las alertas funcionaban. Y aun así, el patrón se repetía: el oxígeno caía, la alerta sonaba, la operación reaccionaba. Decisiones de madrugada, sin contexto suficiente, contra el tiempo.

El problema de fondo: activar la inyección de oxígeno no es como apretar un botón. Requiere preparación: coordinar equipos, disponer recursos, tomar decisiones con tiempo. Cuando la alerta llega porque el oxígeno ya cayó, ese tiempo no existe.

Monitorear bien no alcanza cuando el evento ya está ocurriendo.

Lo complejo es que el oxígeno no depende de una sola variable. Cambia según la hora del día, la temperatura del agua, la latitud del centro, la proximidad a ríos o desembocaduras. Al inicio del proyecto, no era evidente cuáles de esas variables tenían señal real para anticipar una caída y cuáles simplemente generaban ruido.

La pregunta que cambió el enfoque fue simple: ¿se puede predecir hoy la curva de oxígeno del día siguiente?


La decisión estratégica: de proveedor de monitoreo a proveedor de predicción

Nuestro cliente no llegó con un problema técnico. Llegó con una ambición comercial: convertir su capacidad de captura de datos en un nuevo valor para sus clientes.

Si podían predecir con anticipación lo que iba a ocurrir, la operación podía prepararse durante el día para lo que vendría en la noche. Y si esa predicción era confiable y consumible, podían ofrecerla como un feature diferenciador dentro de su plataforma.

Ya tenían la infraestructura. Ya tenían los datos. Ya tenían la relación con las salmoneras. Lo que querían era dar el paso siguiente en la conversación comercial: no solo "te avisamos cuando el oxígeno baja", sino "te decimos hoy cómo va a comportarse mañana".

Este es el tipo de problemas que Datalized da vuelta y convierte en oportunidad.


Cómo lo construimos: tres decisiones que definieron el resultado

Decisión 1: Primero estructurar, después modelar

Los datos existían, pero estaban dispersos en CSVs sin una estructura pensada para análisis. Antes de entrenar cualquier modelo, había que construir una base confiable: cada fila una observación, cada columna una variable con nombre y lógica definida.

Esto puede sonar menor. No lo es. Un modelo entrenado sobre datos mal estructurados aprende mal, y nadie lo sabe hasta que la predicción falla en producción. Dedicar tiempo a esta etapa es lo que hace que todo lo que viene después sea reproducible y confiable.

Decisión 2: Validar con expertos del negocio, no solo con métricas del modelo

Entrenamos el modelo con Python y Scikit-Learn para predecir la curva de oxígeno del día siguiente. Pero el trabajo más valioso no fue técnico: fue sentarnos con oceanógrafos a entender qué variables tienen sentido físico real en este contexto.

Hubo variables que intuitivamente "debían" importar y resultó que no aportaban señal. Y otras menos obvias que sí la tenían. Sin ese diálogo entre el modelo y el conocimiento experto, el resultado habría sido técnicamente correcto y operacionalmente inútil.

Una predicción que nadie entiende, nadie la usa.

Decisión 3: El modelo no es el producto, poder consumirlo en su plataforma si lo es.

Un modelo que vive en un notebook de Python no le sirve a nadie en producción. Para que esto fuera un feature comercializable, tenía que ser consumible: que el cliente lo pudiera integrar a su plataforma, que sus clientes lo pudieran consultar on-demand, sin que alguien corriera un script manualmente.

Persistimos el modelo y lo expusimos como una API de predicción. Nuestro cliente la integró a su infraestructura. Pasó de tener un experimento interesante a tener una capacidad instalada que puede vender.


¿Qué quedó instalado?

Tres cosas concretas cambiaron para nuestro cliente:

Una propuesta diferenciadora para sus clientes. La conversación comercial ya no se limita a monitoreo. Ahora pueden ofrecer predicción del día siguiente como un feature de valor agregado dentro de su plataforma.

Prevención operacional real. Los centros de cultivo pueden preparar o activar la inyección de oxígeno con anticipación, antes de que el evento ocurra. Menos decisiones reactivas, menos riesgo sobre alimentación, crecimiento y mortalidad de los peces.

Capacidad instalada en IA. Más allá del modelo, el equipo adquirió entendimiento práctico de cómo abordar un problema de analítica predictiva de punta a punta: desde datos crudos hasta un servicio en producción. Una base para seguir construyendo.


¿Tu operación tiene un patrón similar?

Este caso es de acuicultura, pero el patrón subyacente aparece en muchas industrias. Hazte estas preguntas:

¿Tienes datos pero no los estás aprovechando? Sensores, registros operacionales, sistemas internos, fuentes externas. El volumen existe, pero no se ha convertido en nada accionable.

¿Hay una variable crítica que hoy reacciona tarde? Una caída de calidad, un quiebre de stock, una falla de equipo, una desviación de proceso. Algo que cuando ya lo ves en el dashboard, el costo ya está ocurriendo.

¿Las decisiones importantes todavía se toman por guatímetro? Hay teorías en el equipo sobre qué factores importan, pero no hay evidencia. Cada experto tiene su versión y ninguna está validada con datos.

¿Tienes clientes a quienes podrías ofrecerles esto como un producto? Si eres un proveedor con datos de operación de tus clientes, probablemente tienes entre manos la materia prima para un feature diferenciador que hoy no estás monetizando.

Si te identificas con dos o más de esas preguntas, la oportunidad está ahí. La analítica predictiva, modelos que aprenden de tus datos históricos para anticipar lo que viene, no es IA generativa, es IA que existe hace varios años. Es la IA productizable hoy, que te entrega resultados medibles, capturables y que se usan en la operación real. En este caso, se convirtió en un nuevo producto que un proveedor hoy le vende a sus clientes.


Preguntas Frecuentes

¿Qué es la analítica predictiva aplicada a operaciones? Es el uso de modelos de Machine Learning entrenados con datos históricos — de sensores, sistemas operacionales o fuentes externas — para anticipar eventos críticos antes de que ocurran. En lugar de reaccionar cuando el problema ya está presente, la organización puede preparar acciones preventivas con anticipación.

¿Qué datos se necesitan para construir un modelo predictivo? Principalmente datos históricos estructurados de la variable que se quiere predecir, variables que potencialmente la explican (hora, temperatura, geografía, condiciones operacionales) y suficiente volumen para que el modelo aprenda patrones. La calidad y estructura del dataset es tan importante como el algoritmo.

¿Qué es una API de predicción on-demand? Es una forma de exponer un modelo de Machine Learning como un servicio consumible: en vez de correr el modelo manualmente, cualquier sistema autorizado puede consultarlo en tiempo real y recibir una predicción como respuesta. Esto permite integrarlo a plataformas existentes y operarlo en producción sin intervención manual.

¿Este tipo de proyecto es solo para la industria acuícola? No. El patrón es replicable en cualquier operación donde exista una variable crítica que hoy se gestiona reactivamente, datos históricos acumulados y decisiones que se toman por intuición en lugar de evidencia. Agricultura, minería, manufactura, energía y logística tienen desafíos análogos.


En Datalized ayudamos a equipos a recorrer ese camino completo: estructurar los datos, construir el modelo predictivo, validarlo con expertos del negocio y productizarlo para que el resultado no quede en un notebook sino en producción.

¿Quieres explorar si tienes una oportunidad de analítica predictiva en tu operación? Conversemos.