
LA INTELIGENCIA ARTIFICIAL ESTÁ UNIENDO A IMPORTANTE EQUIPO INTERDISCIPLINARIO DE BIÓLOGOS E INGENIEROS DE ALEMANIA Y ARGENTINA EN EL ESTUDIO DE LA MAYOR COLONIA DE LOROS DEL MUNDO SITUADA EN EL CÓNDOR RÍO NEGRO ARGENTINA
Para el conteo de las entradas de nidos de loros barranqueros se están utilizando redes neuronales convolucionales Un equipo compuesto por biólogos e ingenieros está llevando a cabo un trabajo de conteo de nidos, mediante técnicas de inteligencia artificial, en la colonia de Loros Barranqueros, Cyanoliseus patagonus, ubicada en un acantilado frente al Océano Atlántico en cercanías del balneario El Cóndor, provincia de Río Negro, en el Noreste de la Patagonia Argentina. En el mundo de la ecología, contar poblaciones animales es fundamental para comprender los procesos ecológicos. Sin embargo, en el caso de grandes poblaciones, contar manualmente puede ser tedioso y condicionado a errores. En este estudio, se utilizan redes neuronales convolucionales (CNN; un subconjunto de aprendizaje automático que usa algoritmos de aprendizaje profundo) para contar el número de entradas de nidos de loros en fotografías tomadas en la colonia de Psittaciformes (“los que tienen forma de loro” según su etimología; es decir loros, cotorras, catitas, guacamayos, papagayos y cacatúas) más grande del mundo. Así es, de todas las especies de loros en el mundo, esta es la colonia más grande en cuanto a número de individuos. El objetivo principal de este proyecto es obtener el número total de entradas de nidos de la colonia e investigar la distribución de dichas entradas a lo largo del acantilado. La colonia evoluciona con el tiempo y tiene hoy una extensión de unos 18 kilómetros. Mediante relaciones obtenidas en trabajos de campo previos, los biólogos pueden estimar el número aproximado de individuos, en función de la cantidad de entradas de nidos. Una de las 222 imágenes utilizadas en el trabajo de conteo. Recuadro: un detalle de los nidos, con una pareja de Loros Barranqueros en la entrada de un nido (fotografía: Alejandro Balbiano). El equipo de investigación está compuesto por el Dr. Juan F. Masello (JFM) de la Universidad de Bielefeld, Alemania, y de la Universidad de Venda, Sudáfrica, el biólogo Mauricio Failla (MF) del proyecto Patagonia Noreste, con sede en Viedma, el ing. Gabriel Zanellato (GZ) de la Fundación Soberanía con sede en Cinco Saltos, y el ing. Gabriel Pagnossin (GP) de la Universidad Nacional de Río Negro. JFM, GP y GZ concibieron y diseñaron el estudio. MF, JFM y GP efectuaron el trabajo de campo a través del relevamiento fotográfico de la colonia, de donde JFM tomó los parches utilizados en el trabajo. GZ estuvo a cargo de la programación del código para crear los modelos y ejecutar los conteos. PRECISIÓN Y EFICIENCIA En una entrevista realizada al Ing. Gabriel Zanellato este destacó “La importancia del trabajo en equipo y la colaboración de expertos en diferentes áreas fue fundamental para el éxito de este proyecto” explicando que “las CNN ayudan en el conteo de entradas de nidos de loros en fotografías al automatizar el proceso. En el estudio realizado por el equipo de investigación, se utilizaron diferentes arquitecturas de CNN, como U-Net, ResUnet y DeepLabv3, para procesar las imágenes de la colonia de loros. Estas redes permiten contar con precisión y eficiencia, ahorrando tiempo y eliminando errores asociados con el conteo manual. Se utilizó tecnología GPU (del inglés, Graphics Processing Unit, un tipo de procesador que maneja y acelera la representación de gráficos) para mejorar el rendimiento de las CNN, facilitando el análisis de grandes conjuntos de datos de manera más efectiva”. TÉCNICA Zanelatto dio detalles sobre la técnica utilizada: “en lugar de detectar y localizar instancias u objetos en una imagen, el objetivo es estimar un mapa de densidad de la imagen. Luego, al integrar o sumar los valores de píxeles sobre cualquier región de dicho mapa de densidad, se obtiene el recuento de objetos dentro de dicha región. El proceso de aprender a inferir dicha densidad implica minimizar una función de costos. Al trabajar bajo un esquema de aprendizaje supervisado, se necesitan mapas de densidad etiqueta o ground-truth (del inglés, «verificación fundamental»; se refiere al proceso de recopilar los datos objetivos, probables, adecuados para una prueba dada), que se comparan con los mapas de densidad predichos durante el proceso de entrenamiento. Para obtener los mapas de densidad ground-truth, un biólogo experto demarca manualmente la ubicación aproximada del centro de las entradas de los nidos en el conjunto de parches de entrenamiento, produciendo así un nuevo conjunto de imágenes punteadas compuestas por un fondo negro y lo píxeles individuales esparcidos, cada uno con valor 1. La colonia está representada en su totalidad por 222 fotografías cada una de 3000 x 4000 píxeles, y sobre ellas se extraen aleatoriamente 156 parches representativos de 256 x 256 píxeles” VENTAJA DEL PROCESO Destacando que “aquí radica la ventaja de este proceso, ya que sólo se demarcan los parches de entrenamiento seleccionados aleatoriamente, en lugar de utilizar el conjunto completo de imágenes, lo que sería el tedioso proceso manual previo que queremos automatizar, ahorrando así un tiempo valioso para el biólogo. El siguiente paso es aplicar una convolución gaussiana (es decir, un tipo general de media matemática móvil, como se puede observar si una de las funciones se toma como la función característica de un intervalo) sobre las imágenes de puntos, un proceso que difuminará los puntos, creando los mapas de densidad. Luego, mediante técnicas de data augmentation (es decir, la generación de señales sintéticas, en este caso imágenes, reorganizando componentes de datos reales, en este caso los parches) se lleva el número total de parches a 312. Aplicamos simplemente un volteado horizontal. DIVISIÓN DE DATOS El Ingeniero detalló que “una vez generada la totalidad de parches, se procede a crear conjuntos de entrenamiento, validación y testeo. Esta división de los datos sirve para entrenar el modelo en el conjunto de entrenamiento, ajustar los hiperparámetros utilizando el conjunto de validación y evaluar el rendimiento del modelo final en el conjunto de testeo. Con el objetivo de asegurar una distribución estadística similar entre los conjuntos y reducir cualquier sesgo subyacente en los datos, se mezclaron los parches y se entrenaron siete modelos diferentes para cada una de las tres arquitecturas”. PASO FINAL “El