Del gesto al movimiento: Cómo una cámara puede generar independencia

Un sistema que combina inteligencia artificial, una cámara y un microcontrolador para traducir movimientos de la cabeza en acciones reales

Gesto como acción discapacidad arduino

Introducción

A simple vista inclinar la cabeza parece un gesto insignificante. Sin embargo, para alguien con movilidad reducida, ese movimiento puede ser la clave para recuperar parte de su independencia. En tiempos donde la tecnología se convierte en una extensión de nuestras capacidades, surge una propuesta que transforma un gesto cotidiano en una acción tangible. Usando una cámara, un programa capaz de reconocer la dirección del movimiento y un pequeño microcontrolador, este sistema convierte la inclinación de la cabeza en una señal que puede encender luces, mover una silla de ruedas o activar cualquier dispositivo electrónico.

Más que un experimento técnico, es un recordatorio de que la innovación también puede tener rostro humano: aquel que busca mejorar la vida de quienes más lo necesitan.

Del gesto a la acción

Gesto arduinoEn este proyecto, la cámara se convierte en los ojos del sistema. Es la encargada de observar atentamente el rostro del usuario y captar cada leve movimiento. Gracias a un algoritmo creado en el lenguaje de programación Python con la librería OpenCV, la computadora puede reconocer si la persona inclina la cabeza hacia la izquierda, hacia la derecha o si la mantiene en el centro.

Cada uno de esos gestos se transforma en una señal que el sistema interpreta como si la cámara entendiera un lenguaje silencioso. Esa información viaja por un puerto serial hacia un microcontrolador que puede ser un Arduino, el pequeño microcontrolador que convierte los datos en acciones concretas.

Cuando el microcontrolador recibe la orden, enciende un LED o un mecanismo, demostrando que un simple gesto puede convertirse en movimiento real. Todo ocurre en cuestión de segundos: la cámara ve, el programa comprende y el microcontrolador responde. Así, los ojos del sistema logran transformar la intención humana en independencia tangible.

Arquitectura técnica del sistema

El programa en Python usa la cámara del computador para detectar el rostro de la persona y, según hacia donde incline la cabeza, envía una señal a un microcontrolador para que active un sistema a través de un pulso de 5 Volts. Todo se hace en tiempo real, combinando visión artificial y comunicación serial.

Primero, se importan tres librerías: OpenCV para manejar la cámara y mostrar la imagen, Mediapipe para reconocer los puntos del rostro, y Serial para comunicarse con el microcontrolador. Luego se inicializan los módulos de dibujo y detección facial de Mediapipe, que son los encargados de generar la malla de puntos que se ve sobre la cara.

El programa abre el puerto COM1, que es el canal por donde se envían los datos al microcontrolador, y también enciende la cámara. Cada vez que se captura una imagen, se analiza el cuadro y, si el sistema detecta un rostro, dibuja una malla sobre él.

De todos los puntos del rostro, el programa se enfoca en uno: el de la nariz. Ese punto tiene una coordenada “x” que indica qué tan a la izquierda o a la derecha está la cabeza. Si el valor es menor de 0.45, significa que la persona inclinó la cabeza hacia la izquierda y el programa envía un “1” por el puerto serial. Si es mayor de 0.55, la cabeza está hacia la derecha y se envía un “2”. Si está entre esos dos valores, la cabeza está centrada y se manda un “0”.

El microcontrolador, al recibir esos números, puede enviar un pulso de 5V que adecuado eléctricamente puede mover motores o ejecutar cualquier acción física que se programe. Mientras tanto, el vídeo se muestra en pantalla con la malla sobrepuesta, y el programa se mantiene activo.

En resumen, la cámara funciona como los ojos del sistema, Python y Mediapipe son el cerebro que interpreta los gestos y el microcontrolador es el cuerpo que ejecuta las órdenes. Juntos, transforman un simple movimiento de cabeza en una acción real y visible.

Gesto arduino

Para el programa del microcontrolador aquí se presenta una sugerencia en Arduino.

Gesto arduino discapacidad

Este programa controla tres luces (LEDs) conectadas al Arduino. Cada LED está conectado a un pin diferente: el pin 2, el pin 3 y el pin 4.

Primero, en la parte de configuración (setup), el Arduino prepara los pines para que funcionen como salidas y abre la comunicación por el puerto serial. Si llegó algo, lo guarda en la variable “dato”.

Antes de hacer cualquier cosa, apaga todos los LEDs (pone los tres en LOW). Luego, dependiendo del dato recibido:

  • Si el dato es ‘1’, enciende el LED de la izquierda (el del pin 2).
  • Si el dato es ‘0’, enciende el LED del centro (el del pin 3).
  • Si el dato es ‘2’, enciende el LED de la derecha (el del pin 4).

En resumen, cuando el programa recibe un número desde el puerto serial, enciende uno de los tres LEDs. Cuando llega un número nuevo, apaga los demás y solo deja encendido el que corresponde al número recibido.

Aplicaciones y proyecto social

Este proyecto tiene una gran relevancia humana, ya que puede ser de gran ayuda para personas con movilidad limitada. A través del reconocimiento de gestos, se podrían controlar dispositivos como sillas de ruedas, encender o apagar luces, manejar una computadora o incluso dirigir un robot.

La principal ventaje de este tipo de sistemas es que aumentan la autonomía y la independencia personal, permitiendo que las personas realicen tareas cotidianas sin depender de otros. Esto mejora significativamente su calidad de vida y fomenta la inclusión tecnológica.

Además, el sistema puede ampliarse para reconocer más gestos, adaptándose a diferentes necesidades y aplicaciones. También es posible conectarlo a una placa ESP con conexión WiFi, lo que permitiría integrarlo con asistentes virtuales como Alexa para controlar electrodomésticos inteligentes en el hogar, como ventiladores, televisores o bombillos.

La tecnología y la ingeniería no solo buscan innovar, también tienen el poder de transformar vidas. Este proyecto demuestra cómo un simple gesto puede convertirse en una herramienta de inclusión, brindando nuevas oportunidades a quienes enfrentan limitaciones físicas.

Cuando la ciencia se une con la empatía, la ingeniería deja de ser solo cables y código: se convierte en un puente hacia la independencia, la libertad y la dignidad humana.

A veces, un simple gesto puede cambiarlo todo

Acerca de Bryan Tejada Aparicio 1 Article
Ingeniero y docente apasionado por el desarrollo de tecnologías inteligentes.

Sé el primero en comentar

Dejá un Comentario

Tu dirección de correo no será publicada.


*