AgriScout: Un sistema de inspección de cultivos

La tecnología presentada en este documento es particularmente interesante para el desarrollo de sistemas de monitorización de cultivos, siendo una propuesta complementaria, y en algunos casos alternativa, a los sistemas aéreos y/o satelitales.

Este documento presenta los aspectos más relevantes de un sistema de inspección de cultivos integrado en un vehículo eléctrico capaz de recorrer 80 km sin recarga. El vehículo está preparado para cubrir de manera autónoma un campo siguiendo un plan de ruta predefinido. En el vehículo se ha integrado, entre otros, un sensor RGB-D conectado a una computadora de alto rendimiento. La información heterogénea adquirida con el sensor RGB-D se integra posteriormente para generar automáticamente mapas en 3D de los cultivos mediante el uso de un software desarrollado por el grupo. El rendimiento del sistema de inspección se ha comprobado principalmente en viñedos. Los resultados muestran que la tecnología propuesta es viable y puede proporcionar información complementaria a otras alternativas de inspección.

foto

Una de las etapas clave de un sistema de Manejo Integrado de Plagas (MIP) es el monitoreo o la inspección continua de los cultivos para garantizar que los problemas se detecten a tiempo. Mientras que en campos pequeños los operadores pueden realizar de forma efectiva esta vigilancia, en grandes extensiones la única opción viable es el muestreo discreto, seleccionando aleatoriamente o de forma regular un conjunto de puntos de muestreo. Así, el desarrollo de tecnologías que permitan la inspección automática y continua de un cultivo resulta de gran interés. Entre los diversos medios para recopilar información bien estructurada, los vehículos autónomos equipados con sensores son una tecnología prometedora a medio plazo para la adquisición de información en el campo. Pero el uso de robots móviles en entornos agrícolas sigue siendo un reto, ya que la navegación presenta dificultades debido a la variabilidad y la naturaleza tanto del terreno como de la vegetación. En Bechar y Vigneault (2016) se puede encontrar una revisión actual de los desarrollos e innovaciones en robots agrícolas para operaciones de campo y se analizan las limitaciones principales.

El uso de robots de tamaño mediano para inspeccionar completamente un cultivo utilizando un conjunto de sensores embarcados es una opción adecuada para minimizar la compactación del suelo y es el mejor medio de lograr una navegación segura en cultivos leñosos. Así, este tipo de robots puede ser una opción útil para la detección temprana de plagas recopilando la información georreferenciada necesaria para construir mapas precisos del cultivo. Es más, en casos como el de los cultivos leñosos, es posible realizar más de un muestreo durante el año gracias al mínimo impacto que tiene el vehículo.

En las siguientes secciones, se presenta un sistema de inspección y sus resultados de rendimiento iniciales. El sistema de inspección desarrollado está compuesto por: 1) una plataforma de inspección multisensorial y autónoma integrada en un vehículo comercial capaz de cubrir completamente un campo siguiendo una ruta predefinida (Conesa-Muñoz et al., 2016) y capaz de recopilar información georreferenciada; y 2) el software de desarrollo propio que permite generar automáticamente, a partir de la información heterogénea adquirida en el campo, un mapa tridimensional de las líneas de cultivo, así como el mapa de la distribución del volumen.

 

 

La plataforma de inspección

La plataforma de campo (Figura 1) se basa en un vehículo eléctrico Twizy (Renault) que tiene una autonomía de aproximadamente 80 km, con una carga de 3 horas y media con un enchufe estándar, y capaz de alcanzar una velocidad de 80 km/h. El vehículo, con una longitud de 2,32 metros, una anchura de 1,19 metros y una altura de 1,46 metros, permite velocidades libres de vibraciones por debajo de 3 km/h, lo que favorece la adquisición de información de gran calidad.

Se ha integrado una estructura de soporte de aluminio para colocar fácilmente los sensores adaptándolos a las características de cada tipo de muestreo. El sensor RGB-D (Kinect v2, Microsoft) integrado, y que es la base de la información que se presenta en este artículo, suministra 30 fotogramas por segundo; en pocas palabras imágenes RGB con una resolución de 1920 × 1080 píxeles junto con información de profundidad con una resolución de 512 × 424 píxeles. Los datos de profundidad se obtienen utilizando la tecnología ToF (tiempo de vuelo). La cámara está conectada al ordenador de a bordo que integra un procesador Intel Core i7-4771@3.5GHz, 16 GB de RAM y una tarjeta gráfica NVIDIA GeForce GTX 660. El vehículo de inspección está equipado además con un receptor RTK-GPS (R220, Hemisphere), que proporciona datos de ubicación a una frecuencia de muestreo de 20 Hz con un error de posición inferior a 2 cm.

foto
Figura 1: Plataforma de inspección basada en un vehículo Twizy de Renault.
La automatización del vehículo se ha realizado incluyendo actuadores sobre el acelerador, el freno y la dirección, lo que permite integrar en el vehículo dos tipos de navegación con el fin de que pueda inspeccionar de manera autónoma un campo de cultivo con cobertura total: En concreto se están desarrollando dos tipos de navegación: 1) guiada por la información proporcionada por el receptor RTK-GNSS; navegación apropiada para los cultivos de cereales o los cultivos leñosos, y 2) guiada por la detección en tiempo real de algún elemento de interés, como por ejemplo la línea del cultivo; navegación apropiada para los cultivos que se siembran con una distancia entre líneas suficiente para que circule el vehículo sin pisar las plantas, como en el caso del maíz. Para abordar el control del vehículo se están utilizando técnicas basadas en lógica borrosa (Zadeh, 1965), que proporcionan una mejor aproximación a la forma de conducción humana y que ya se ha utilizado con éxito en la implementación de navegación autónoma en distintos tipos de vehículos (Bengochea-Guevara et al, 2016).

Módulo de generación de mapas 3D

Los mapas se generan a partir de la información proporcionada por el sensor RGB-D, que tal como se muestra en la Figura 2 es de dos tipos: 1) imagen RGB (Figura 2a) y 2) información de profundidad, representada en Figura 2b como una imagen en falso color, donde los distintos tonos de rojo, naranja y amarillo indican objetos de la escena próximos a la cámara mientras que los tonos de verde y azul son los elementos más alejados y, finalmente, el negro corresponde a las zonas ciegas para el sensor.
foto
Figura 2: (a) Imagen RGB captada por el sensor RGB-D (b) Representación en color de la información de profundidad proporcionada por el sensor RGB-D.
Para monitorizar adecuadamente el estado del cultivo leñoso, es esencial estimar algunas características geométricas de los árboles, como su altura y el volumen de la copa. De hecho, el volumen de la copa permite, entre otros, el análisis de la capacidad de producción del árbol y la optimización de una serie de tareas agronómicas, como el uso del agua, la aplicación de fitosanitarios y las operaciones de poda. Aún más, las características geométricas pueden ser esenciales en la detección temprana de plagas, ya que los cambios en los valores esperados de altura o volumen pueden indicar la existencia de alguna enfermedad.Por lo general, las dimensiones de los árboles se miden a mano en el campo, un trabajo realmente tedioso, y el volumen se estima aproximando la copa a un cuerpo geométrico regular o aplicando algún modelo empírico.

El proceso de generación de mapas 3D desarrollado es completamente automático y calcula las dimensiones como la altura, la anchura o el volumen a partir de una nube de puntos generada mediante la fusión de diferentes imágenes de profundidad superpuestas utilizando un método basado en el algoritmo descrito en (Niessner et al., 2013). El algoritmo, seleccionado por sus buenos resultados en la generación de nubes de puntos de grandes áreas, supera los problemas de otros métodos incluido el software de Microsoft (Newcombe, 2011), que solo gestiona volúmenes de hasta 8 metros cúbicos, lo que impone una restricción importante para los contextos agrícolas. Además, se ha integrado una variante del algoritmo Iterative Closest Point (ICP) (Chen y Medioni, 1992) para mejorar la precisión de la nube de puntos obtenida eliminando pequeñas derivas, así como se ha desarrollado un algoritmo (Bengochea-Guevara et al, 2017) para eliminar las grandes derivas que aparecen en líneas de más de 50 metros de longitud. La información de profundidad se fusiona con el modelo actual utilizando un promedio móvil ponderado, mientras que la información RGB también se actualiza utilizando un promedio móvil exponencial.

foto
Figura 3: Reconstrucción 3D de una fila de viñedos.
La Figura 3 muestra la reconstrucción de parte de una línea con los datos recogidos en el muestreo realizado en mayo de 2016 en los viñedos comerciales del grupo Codorniu (Raimat, Lleida). Para estimar los volúmenes a partir de la nube de puntos se utiliza el paquete R alphashape3d (paquete Alphashape3d, 2016) basado en el trabajo original de Edelsbrunner y Mucke (Edelsbrunner and Mucke, 1994).La Figura 4 muestra la reconstrucción de una de las hileras de viñedos muestreadas durante la campaña de febrero, así como la distribución de los volúmenes estimados para la hilera. Los valores de reconstrucción y volumen se obtuvieron a partir de los datos adquiridos al escanear solo un lado de la hilera de viñedos. Por lo tanto, los valores de volumen pueden subestimarse, aunque en cultivos leñosos con filas estrechas, como en este caso, es de suponer que la correlación entre el volumen estimado y el volumen real es alta. Además, la reconstrucción 3D y la distribución de volumen parecen coincidir consistentemente; por ejemplo, aparecen valores de volumen más bajos en aquellos puntos en los que la reconstrucción 3D no muestra viñedo y los valores de volumen más altos generalmente se presentan en las zonas más frondosas.

foto