Paso 6: Construcción de un modelo de detección de objetos (FOMO) con Edge Impulse
Como se explicó en los pasos anteriores, necesitaba un entorno controlado que manifestara una estructura e integridad del suelo variable para construir un modelo válido de detección de objetos. Por lo tanto, apliqué estiércol de codorniz compostado recolectado en diferentes etapas de descomposición (fresco, activo, maduro y viejo) como fertilizante orgánico para alterar la acidificación, integridad y estructura del suelo en tres macetas separadas. Luego, agregué fertilizantes químicos a cada maceta en la misma cantidad para examinar el uso excesivo de fertilizantes químicos.
Cuando terminé de capturar imágenes de suelos agotados con fertilizantes en tres macetas separadas y almacenarlas en LattePanda 3 Delta, comencé a trabajar en mi modelo de detección de objetos (FOMO) para detectar el uso excesivo de fertilizantes químicos en relación con los fertilizantes orgánicos a fin de prevenir sus efectos nocivos sobre el medio ambiente y nuestra salud.
Dado que Edge Impulse es compatible con casi todos los microcontroladores y placas de desarrollo debido a sus opciones de implementación de modelos, decidí utilizar Edge Impulse para construir mi modelo de detección de objetos. Además, Edge Impulse proporciona un elaborado algoritmo de aprendizaje automático (FOMO) para ejecutar modelos de detección de objetos más accesibles y rápidos en dispositivos periféricos como SenseCAP A1101.
Edge Impulse FOMO (Objetos más rápidos, más objetos) es un novedoso algoritmo de aprendizaje automático que lleva la detección de objetos a dispositivos altamente restringidos. Los modelos FOMO pueden contar objetos, encontrar la ubicación de los objetos detectados en una imagen y rastrear múltiples objetos en tiempo real, lo que requiere hasta 30 veces menos potencia de procesamiento y memoria que MobileNet SSD o YOLOv5.
Aunque Edge Impulse admite archivos JPG o PNG para cargarlos como muestras directamente, cada objeto de destino en una muestra de prueba o entrenamiento debe etiquetarse manualmente. Por lo tanto, necesitaba seguir los pasos a continuación para formatear mi conjunto de datos para entrenar mi modelo de detección de objetos con precisión:
- Escalado de datos (cambio de tamaño)
- Etiquetado de datos
Dado que agregué niveles de contaminación de fertilizantes basados en la integridad y estructura del suelo alterada por el fertilizante orgánico aplicado (estiércol) a los nombres de los archivos mientras capturaba imágenes de suelos en las macetas mencionadas, preprocesé mi conjunto de datos sin esfuerzo para etiquetar cada objeto objetivo en una imagen muestra en Edge Impulse utilizando las clases de contaminación:
- Enriquecido
- Inseguro
- Tóxico
De manera plausible, Edge Impulse permite crear modelos predictivos optimizados en tamaño y precisión automáticamente e implementar el modelo entrenado como un firmware compatible (UF2) para SenseCAP A1101. Por lo tanto, después de escalar (redimensionar) y preprocesar mi conjunto de datos para etiquetar objetos de destino, pude crear un modelo de detección de objetos preciso para detectar el uso excesivo de fertilizantes químicos, que se ejecuta en SenseCAP A1101 sin requisitos adicionales.
Puede inspeccionar mi modelo de detección de objetos (FOMO) en Edge Impulse como un proyecto público.
Paso 6.1: Subir imágenes (muestras) a Edge Impulse y etiquetar objetos
Después de recopilar muestras de imágenes de capacitación y prueba, las cargué en mi proyecto en Edge Impulse. Luego, etiqueté cada objeto de destino en las muestras de imágenes.
#1 En primer lugar, regístrate en Edge Impulse y crea un nuevo proyecto.
#2 Para poder etiquetar muestras de imágenes manualmente en Edge Impulse para modelos de detección de objetos, vaya a Tablero ➡ Información del proyecto ➡ Método de etiquetado y seleccione Cuadros delimitadores (detección de objetos).
#3 Vaya a la página Adquisición de datos y haga clic en el botón Cargar datos.
#4 Luego, elija la categoría de datos (entrenamiento o prueba), seleccione los archivos de imagen y haga clic en el botón Cargar datos.
#5 Después de cargar mi conjunto de datos con éxito, etiqueté cada objeto de destino en las muestras de imágenes utilizando las clases de contaminación de fertilizantes. En Edge Impulse, etiquetar un objeto es tan fácil como arrastrar un cuadro a su alrededor e ingresar a una clase. Además, Edge Impulse ejecuta un algoritmo de seguimiento en segundo plano mientras etiqueta los objetos, por lo que mueve los cuadros delimitadores automáticamente para los mismos objetos de destino en diferentes imágenes.
#6 Vaya a Adquisición de datos ➡ Cola de etiquetado (Etiquetado de detección de objetos) . Muestra todos los elementos sin etiquetar (entrenamiento y prueba) que quedan en el conjunto de datos dado.
#7 Por último, seleccione un elemento sin etiquetar, arrastre cuadros delimitadores alrededor de los objetos de destino, haga clic en el botón Guardar etiquetas y repita este proceso hasta que todas las muestras tengan al menos un objeto de destino etiquetado.
Paso 6.2: Entrenamiento del modelo FOMO en las imágenes del suelo ejercidas con fertilizantes
Después de etiquetar objetos objetivo en mi entrenamiento y probar muestras con éxito, diseñé un impulso y lo entrené para detectar el uso excesivo de fertilizantes químicos en relación con los fertilizantes orgánicos.
Un impulso es un modelo de red neuronal personalizado en Edge Impulse. Creé mi impulso empleando el bloque de preprocesamiento de imágenes y el bloque de aprendizaje de detección de objetos (imágenes) .
El bloque de preprocesamiento de imagen opcionalmente convierte el formato de imagen de entrada a escala de grises y genera una matriz de características a partir de la imagen sin procesar.
El bloque de aprendizaje Detección de objetos (imágenes) representa un algoritmo de aprendizaje automático que detecta objetos en la imagen dada, distinguidos entre etiquetas de modelo.
#1 Vaya a la página Crear impulso y establezca los parámetros de ancho y alto de la imagen en 120. Luego, seleccione el parámetro del modo de cambio de tamaño como Ajustar el eje más corto para escalar (cambiar el tamaño) dado el entrenamiento y las muestras de imagen de prueba.
#2 Seleccione el bloque de preprocesamiento de imágenes y el bloque de aprendizaje de detección de objetos (imágenes) . Finalmente, haz clic en Guardar Impulso.
#3 Antes de generar funciones para el modelo de detección de objetos, vaya a la página Imagen y configure el parámetro Profundidad de color como Escala de grises . Luego, haga clic en Guardar parámetros.
#4 Después de guardar los parámetros, haga clic en Generar funciones para aplicar el bloque de preprocesamiento de imágenes para entrenar muestras de imágenes.
Después de realizar experimentos preliminares con mi modelo de detección de objetos, noté que algunos objetos de destino con la etiqueta Enriquecido reducían la precisión del modelo cuando se separaban mientras se dividía la validación.
Por lo tanto, apliqué una clave de metadatos a las muestras erróneas para evitar la fuga de datos entre mi tren y los conjuntos de validación.
#5 Para agregar una clave de metadatos, vaya a Adquisición de datos ➡ Conjunto de datos ➡ Entrenamiento .
#6 Luego, seleccione la muestra defectuosa y haga clic en el botón Agregar nuevos metadatos .
#7 Finalmente, ingrese la clave de metadatos y los parámetros de valor:
suelo_confundido ➡ suelo_confundido
#8 Después de agregar parámetros de metadatos a las muestras defectuosas, vaya a la página de detección de objetos y haga clic en Iniciar entrenamiento.
De acuerdo con mis experimentos con mi modelo de detección de objetos, modifiqué la configuración y la arquitectura de la red neuronal para construir un modelo de detección de objetos con alta precisión y validez:
📌 Configuración de red neuronal:
- Número de ciclos de formación ➡ 90
- Tasa de aprendizaje ➡ 0,052
- Tamaño del conjunto de validación ➡ 5
- Conjunto de validación/entrenamiento dividido en clave de metadatos ➡ confusion_soil
📌 Arquitectura de red neuronal:
- FOMO (Objetos más rápidos, más objetos)
- MobileNetV2 0.35
Después de generar características y entrenar mi modelo FOMO con muestras de entrenamiento, Edge Impulse evaluó el puntaje F1 (precisión) en 77.8 % .
El puntaje F1 (precisión) es de aproximadamente 77.8% debido al modesto volumen de muestras de entrenamiento de diversas estructuras de suelo aplicadas con fertilizantes con un esquema de color similar, excluyendo los colores de fertilizantes químicos aplicados. Debido a este esquema de color del suelo, noté que el modelo malinterpreta algunos objetos de destino enriquecidos y tóxicos . Por lo tanto, sigo recolectando muestras para mejorar mi conjunto de datos.
Paso 6.3: Evaluación de la precisión del modelo e implementación del modelo
Después de construir y entrenar mi modelo de detección de objetos, probé su precisión y validez utilizando muestras de imágenes de prueba.
La precisión evaluada del modelo es del 80% .
#1 Para validar el modelo entrenado, vaya a la página de prueba del modelo y haga clic en Clasificar todo.
Después de validar mi modelo de detección de objetos, lo implementé como un firmware SenseCAP A1101 totalmente optimizado (UF2) compatible con Seeed Studio.
#2 Para implementar el modelo validado como el firmware SenseCAP A1101 compatible (UF2), vaya a la página Implementación y busque SenseCAP A1101 .
#3 Luego, elija la opción de optimización Quantized (int8) para obtener el mejor rendimiento posible mientras ejecuta el modelo implementado.
#5 Finalmente, haga clic en Construir para descargar el modelo como el firmware SenseCAP A1101 compatible: firmware.uf2.
Paso 7: Conexión de SenseCAP A1101 a la aplicación SenseCAP Mate y configuración del modelo Edge Impulse FOMO
Después de descargar el firmware SenseCAP A1101 compatible: firmware.uf2 , siga las instrucciones que se muestran en el Paso 5.0 para cargar el modelo de detección de objetos Edge Impulse en la unidad de almacenamiento de SenseCAP A1101.
Después de cargar el modelo con éxito:
#1 Instale y abra la aplicación SenseCAP Mate proporcionada por Seeed Studio.
#2 Seleccione la ubicación del servidor como Global y cree una nueva cuenta.
#6 En la pantalla de configuración , seleccione Vision AI Sensor.
#7 Mantenga presionado el botón de configuración en el SenseCAP A1101 durante 3 segundos para activar el modo de emparejamiento de Bluetooth.
#8 Luego, haga clic en el botón Configurar y busque dispositivos SenseCAP A1101 cercanos.
#8 Si la versión del software del dispositivo no es la última versión, haga clic en el botón Actualizar para actualizar la versión del software.
#9 Después de actualizar la versión del software, vaya a Configuración y seleccione:
- Algoritmo ➡ Detección de objetos
- Modelo AI ➡ Definido por el usuario 1
- Puntuación Umbral ➡ 0.6
- Intervalo de enlace ascendente (min) ➡ 5
- Política de paquetes ➡ 2C+1N
#10 Luego, seleccione uno de los planes de frecuencia admitidos según su región, por ejemplo, EU868.
#11 En Plataforma , seleccione SenseCAP para Helium para utilizar la red Helium para transferir paquetes de datos al Portal SenseCAP oficialmente respaldado por Seeed Studio.
#12 Finalmente, haga clic en Enviar ➡ Volver a Inicio para completar la configuración del dispositivo.
#13 Después de configurar los ajustes del nuevo dispositivo, vaya a General y haga clic en Detectar en Vista previa de AI para inspeccionar los resultados de detección del modelo generados por el modelo de detección de objetos Edge Impulse cargado.
Paso 8: Transferir los resultados de la detección al portal SenseCAP a través de la red Helium LongFi
Después de ver los resultados de detección del modelo Edge Impulse en la aplicación SenseCAP Mate, necesitaba vincular SenseCAP A1101 como un nuevo dispositivo a mi cuenta para transferir los resultados de detección como paquetes de datos al portal SenseCAP a través de la red Helium LongFi.
#1 Abre la aplicación SenseCAP Mate.
#2 En Dispositivo , haga clic en el botón Agregar dispositivo .
#3 Luego, escanee el código QR en el SenseCAP A1101 para vincularlo a su cuenta.
#4 Si la etiqueta del código QR está dañada, también puede ingresar la EUI del dispositivo manualmente.
#5 Después de ingresar el nombre del dispositivo agregado, SenseCAP A1101 comienza a enviar los resultados de la detección del modelo al Portal SenseCAP a través de la red Helium.
#6 SenseCAP A1101 ejecuta el modelo Edge Impulse y carga los resultados de la detección del modelo en el portal SenseCAP de acuerdo con el parámetro de intervalo de enlace ascendente configurado, en este caso, cada cinco minutos.
Después de vincular SenseCAP A1101 al Portal SenseCAP con éxito, encuentra la puerta de enlace Helium más cercana y transfiere paquetes de datos al Portal SenseCAP automáticamente.
#7 Para inspeccionar los resultados de detección del modelo transferido en el panel web del Portal SenseCAP, vaya al Portal SenseCAP (web).
#8 Luego, inicie sesión con la misma cuenta registrada en la aplicación SenseCAP Mate.
#9 En Dispositivos , seleccione Nodo de sensor para inspeccionar los dispositivos SenseCAP vinculados.
#10 Para ver todos los paquetes de datos transferidos por los dispositivos vinculados, vaya a Datos ➡ Tabla.
Como se explicó anteriormente, Seeed Studio proporciona la API HTTP SenseCAP para obtener registros de datos registrados del Portal SenseCAP a través de solicitudes HTTP GET.
#11 Para recuperar los resultados de detección de modelos almacenados en el Portal SenseCAP a través de la API HTTP de SenseCAP, vaya a Seguridad ➡ Acceder a las claves API .
#12 Luego, haga clic en el botón Crear clave de acceso y copie el ID de API generado y los parámetros de las claves de API de acceso para su uso posterior.
Puede consultar el Paso 9 para obtener información más detallada sobre la API HTTP de SenseCAP.
Paso 8.1: Activación de la puerta de enlace LoRaWAN de solo datos SenseCAP M2 (EU868)
Después de vincular SenseCAP A1101 a su cuenta del portal SenseCAP, debería conectarse automáticamente a la puerta de enlace de Helium más cercana para transferir los resultados de detección del modelo a través de la red Helium LongFi.
No obstante, si la red Helium no cubre su entorno, es posible que deba comprar una puerta de enlace Helium.
Dado que Seeed Studio proporciona varias puertas de enlace Helium compatibles con el portal SenseCAP, quería mostrar cómo activar una de las puertas de enlace SenseCAP: la puerta de enlace interior LoRaWAN de solo datos SenseCAP M2 (EU868).
#1 En primer lugar, vaya a Helium Explorer para verificar si una puerta de enlace Helium cubre su entorno.
#2 Si es así, no necesita seguir los pasos a continuación.
#3 Para activar la puerta de enlace de solo datos SenseCAP M2, siga las instrucciones de inicio rápido proporcionadas por Seeed Studio.
#4 Después de configurar la puerta de enlace de solo datos SenseCAP M2 y conectarla a Internet a través de un cable ethernet, debería poder actualizar el firmware del dispositivo durante el primer arranque y comenzar a transferir paquetes de datos en menos de 30 minutos.
#5 No olvide que Helium Wallet deducirá una tarifa de incorporación de $ 10 y una tarifa de verificación de ubicación de $ 5 para activar la puerta de enlace solo de datos M2 para transferir paquetes de datos a través de la red Helium LongFi.
Paso 9: desarrollo de una aplicación Python para transferir los resultados de la detección del modelo a través de WhatsApp
Para brindar una experiencia de usuario sobresaliente mientras le informo los resultados de la detección del modelo a través de WhatsApp sobre LoRaWAN, desarrollé una aplicación completa desde cero en Python.
Esta aplicación obtiene los resultados de la detección del modelo del portal SenseCAP al realizar solicitudes HTTP GET a la API HTTP de SenseCAP. Luego, la aplicación utiliza la API de WhatsApp de Twilio para transferir los resultados de detección del modelo recuperado al número de teléfono verificado para informar al usuario sobre el uso excesivo de fertilizantes químicos en relación con los fertilizantes orgánicos.
Puede descargar el archivo A1101_whatsapp_interface.py para probar e inspeccionar el código para obtener resultados de detección de modelos del Portal SenseCAP e informar al usuario de los resultados de detección recuperados a través de WhatsApp.
#1 Dado que Seeed Studio proporciona la API HTTP de SenseCAP para comunicarse con sus diversos sensores y productos, obtenga los parámetros correctos de ID de sensor e ID de medición del Centro de documentación de SenseCAP para obtener los registros de datos que SenseCAP A1101 registró en el Portal SenseCAP a través de Helium Red LongFi.
- 2036
- 4175 ➡ Detección AI No.01
#2 Dado que SenseCAP A1101 genera los resultados de detección del modelo en un formato específico, necesitaba analizar el resultado de detección recuperado para obtener la clase predicha y la precisión.
#3 SenseCAP A1101 almacena la clase pronosticada (número objetivo) y la precisión (nivel de confianza) como un número de punto flotante.
número objetivo [1~10], nivel de confianza [0~99]
- 🔢0.83
- Clase prevista ➡ 0
- Precisión ➡ 0,83
- 🔢1.96
- Clase prevista ➡ 1
- Precisión ➡ 0,96
⭐ Incluir los módulos requeridos.
from twilio.rest import Client
import requests
import json
from time import sleep
⭐ Defina la configuración de la cuenta de Twilio y el objeto del cliente.
twilio_account_sid = ‘<_SID_>’
twilio_auth_token = ‘<_TOKEN_>’
twilio_client = Client(twilio_account_sid, twilio_auth_token)
⭐ Defina los parámetros API ID y Access API keys para conectarse al Portal SenseCAP, explicado en el Paso 8.
API_ID = ‘<_ID_>’
API_key = ‘<_KEY_>’
⭐ Defina la información requerida del dispositivo de SenseCAP A1101.
device_eui = «2CF7F1C04340004A»
measurement_id = «4175»
channel_index = «1»
⭐ Defina el host de la API HTTP de SenseCAP.
host = «https://sensecap.seeed.cc/openapi/»
⭐ Según los parámetros de la API de datos del dispositivo , defina el extremo de la URL para obtener los resultados de detección del modelo que SenseCAP A1101 registró en el portal SenseCAP a través de la red Helium LongFi.
{host}/view_latest_telemetry_data?device_eui={}&measurement_id={}&channel_index={}
get_latest_result = «view_latest_telemetry_data?device_eui={}&measurement_id={}&channel_index={}».format(device_eui, measurement_id, channel_index)
⭐ En la función enviar_Mensaje_de_WhatsApp :
⭐ Envíe el mensaje de texto dado con una imagen SenseCAP A1101 al número de teléfono verificado a través de la API de WhatsApp de Twilio para informar al usuario sobre los últimos resultados de detección del modelo a través de WhatsApp.
def send_WhatsApp_message(_from, _to, _message):
# Send the given message via WhatsApp to inform the user of the model detection results.
twilio_message = twilio_client.messages.create(
from_ = ‘whatsapp:’+_from,
body = _message,
media_url = ‘https://media-cdn.seeedstudio.com/media/catalog/product/cache/bb49d3ec4ee05b6f018e93f896b8a25d/1/0/101990962-a1101-first-new-10.17.jpg’,
to = ‘whatsapp:’+_to
)
print(«\nWhatsApp Message Sent: «+twilio_message.sid)
⭐ En la función transfer_latest_result :
⭐ Realice una solicitud HTTP GET a la API HTTP de SenseCAP utilizando las credenciales de autenticación HTTP ( ID de API y claves de API de acceso ) proporcionadas por el Portal SenseCAP como nombre de usuario y contraseña.
⭐ Decodifique el objeto JSON recibido para obtener los últimos resultados de detección del modelo registrados por SenseCAP A1101, incluidas la fecha y la hora de entrada.
⭐ Analice los resultados de detección recuperados para obtener la clase predicha y la puntuación de precisión (exactitud).
⭐ Crea un mensaje de texto de WhatsApp a partir de la información convertida.
⭐ Transmita el mensaje de texto generado con la imagen SenseCAP A1101 al número de teléfono verificado a través de WhatsApp.
def transfer_latest_result():
# Obtain the latest model detection result via the SenseCAP HTTP API and notify the user of the received information through WhatsApp.
url = host + get_latest_result
# Make an HTTP GET request to the SenseCAP Portal by utilizing the provided HTTP authentication credentials (username and password).
res = requests.get(url, auth = (API_ID, API_key))
# Decode the received JSON object.
res = json.loads(res.text)
detection_digit = res[«data»][0][«points»][0][«measurement_value»]
date = res[«data»][0][«points»][0][«time»]
# Convert the obtained result digits to the detected class and the precision score.
detected_class = «Nothing!»
precision = 0
if(detection_digit > 0 and detection_digit < 1):
detected_class = «Enriched»
precision = detection_digit
if(detection_digit > 1 and detection_digit < 2):
detected_class = «Toxic»
precision = detection_digit-1
if(detection_digit > 2):
detected_class = «Unsafe»
precision = detection_digit-2
# Create a WhatsApp message from the retrieved information.
message = «📌 Latest Model Detection Result\n\n🕒 {}\n🌱 Class: {}\n💯 Precision: {}».format(date, detected_class, round(precision, 2))
print(message)
# Transmit the generated message to the user via WhatsApp.
send_WhatsApp_message(‘+_____________’, ‘+_____________’, message)
⭐ A través de WhatsApp, notifique al usuario los resultados de detección del último modelo cada 10 minutos.
while True:
# Notify the user of the latest model detection result every 10 minutes.
transfer_latest_result()
sleep(60*10)
Paso 10: Ejecutar el modelo en SenseCAP A1101 e informar al usuario de los resultados a través de WhatsApp
El modelo de detección de objetos My Edge Impulse (FOMO) escanea una imagen capturada y predice las posibilidades de etiquetas entrenadas para reconocer un objeto de destino en la imagen dada. El resultado de la predicción (puntuación) representa la «confianza» del modelo de que el objeto detectado corresponde a cada una de las tres etiquetas (clases) diferentes [0 – 2], como se muestra en el Paso 6:
- 0 — Enriquecido
- 1 — Tóxico
- 2 — Inseguro
Después de configurar el modelo de detección de objetos Edge Impulse (FOMO) en SenseCAP A1101 y ejecutar el archivo A1101_whatsapp_interface.py en LattePanda 3 Delta:
🌱🪴📲 Como se explicó en los pasos anteriores, SenseCAP A1101 ejecuta una inferencia con el modelo de detección de objetos Edge Impulse.
🌱🪴📲 Luego, cada 5 minutos, transfiere los resultados de la detección del modelo como paquetes de datos al portal SenseCAP a través de la red Helium LongFi.
🌱🪴📲 Cada 10 minutos, el dispositivo ejecuta la aplicación Python para obtener los últimos resultados de detección de modelos registrados del Portal SenseCAP al realizar una solicitud HTTP GET a la API HTTP de SenseCAP.
🌱🪴📲 Después de obtener y analizar los resultados de detección del último modelo, el dispositivo utiliza la API de WhatsApp de Twilio para enviar los resultados de detección obtenidos al número de teléfono verificado a través de WhatsApp para informar al usuario sobre el uso excesivo de fertilizantes químicos en relación con los fertilizantes orgánicos.
🌱🪴📲 Además, LattePanda 3 Delta imprime notificaciones y los mensajes de texto de WhatsApp generados en el shell para su depuración.
En lo que respecta a mis experimentos, el dispositivo detecta con precisión las clases de contaminación de fertilizantes, transfiere los resultados de la detección del modelo al Portal SenseCAP a través de la red Helium y notifica al usuario los últimos resultados de detección a través de WhatsApp sin fallas 🙂
Video 5
Videos y Conclusión
Más discusiones
Mediante la aplicación de modelos de detección de objetos entrenados en numerosas imágenes de suelo ejercidas por fertilizantes en la detección del uso excesivo de fertilizantes químicos en relación con los fertilizantes orgánicos, podemos lograr:
🌱🪴📲 evitar que los fertilizantes químicos contaminen las aguas subterráneas y el medio ambiente,
🌱🪴📲 evitar que los fertilizantes químicos se dispersen por los cuerpos de agua y aumenten los macronutrientes en el ambiente,
🌱🪴📲 mitigar el riesgo de problemas graves de salud debido al agua contaminada con nitritos, como daño en el ADN, peroxidación de lípidos y estrés oxidativo,
🌱🪴📲 protege la vida silvestre de los efectos execrables del uso excesivo de fertilizantes químicos.
Critica al sistema de Oscar Oudri
Leí el artículo sobre este sistema electrónico para aplicar agrotóxicos para distintos usos. Es real que poder contar con herramientas para que no haya tanta deriva por el viento al realizar aplicaciones, etc. Es una mejora para el volumen de producción o el menor uso de mano de obra para muchos casos.
Ahora bien, cuando el planeta está en una situación de debilidad tal, por la contaminación, los volúmenes de basura de todo tipo, que ponen en riesgo la salud de todos los seres vivos, aun la raza humana, debemos propender al no empleo de estos elementos químicos, no conformarnos con atrasar la debacle a que nos lleva el actual modo de producción, con un consumismo a veces sin sentido.
Hay temas, como este que no hay punto medio, no se puede ser medio defensor de la vida y la naturaleza imprescindible para la misma, no se puede hacer un daño conscientemente “menor”, debemos procurar no hacer daño, un uso razonable de los bienes naturales, para que les dejemos una herencia natural al menos igual que la que nos legaron nuestros antepasados. Tendremos la suficiente cuota de inteligencia para hacerlo?
Hay otras áreas donde la automatización, la robotización son una herramienta sensacional para mejorar la calidad de vida, en este tema no.
Además, contamos con excelencias experiencias con fundamentos científicos que avalan otro modelo de producción de alimentos, como la producción orgánica o biológica, es decir, hay otras alternativas.
Sé el primero en comentar