Objetivos
En esta parte del trabajo se ha desarrollado una solución para un ejercicio de Machine Vision en Gazebo Classic. El objetivo principal ha sido integrar el procesamiento de imágenes con el control del robot, permitiendo detectar objetos en el entorno y utilizar dicha información para ejecutar acciones automáticas, como su clasificación o manipulación.
Tareas realizadas:
- Análisis del flujo de percepción
En primer lugar, se ha estudiado el flujo completo de percepción dentro de RoboticsAcademy, desde la captura de imágenes mediante la cámara simulada en Gazebo hasta su procesamiento en el código del ejercicio. Este análisis ha permitido comprender cómo se obtienen los datos visuales y cómo se integran con el resto del sistema.
- Procesamiento de imagen
Se ha implementado un sistema de procesamiento de imagen para detectar objetos en la escena, utilizando técnicas básicas de visión por computador como segmentación por color, filtrado y extracción de características. A partir de la imagen capturada, se han identificado los distintos objetos presentes, determinando su posición en el plano de la imagen y clasificándolos según sus propiedades visuales.
- Conversión a coordenadas del entorno
Una vez detectados los objetos en la imagen, se ha realizado la transformación de coordenadas desde el espacio de imagen al espacio del mundo del robot. Este paso es fundamental para poder relacionar la percepción con la acción, permitiendo al robot conocer la posición real de los objetos y planificar movimientos en consecuencia.
- Integración con el control del robot
La información obtenida del sistema de visión se ha integrado con el control del robot mediante el HAL, utilizando funciones como MoveJoint o MoveLinear para ejecutar movimientos hacia los objetos detectados. De este modo, se ha conseguido un comportamiento autónomo en el que el robot responde dinámicamente a la información visual del entorno.
- Uso de Gazebo Classic
El desarrollo se ha realizado en Gazebo Classic, aprovechando su integración con los sensores simulados y su compatibilidad con los plugins utilizados en RoboticsAcademy. En este entorno, la cámara proporciona imágenes directamente accesibles desde ROS, lo que facilita la implementación del pipeline de visión sin necesidad de configuraciones adicionales complejas.
- Validación de la solución
Finalmente, se ha validado la solución comprobando que el sistema es capaz de detectar correctamente los objetos, estimar su posición y ejecutar las acciones correspondientes de forma consistente. Se han realizado pruebas en diferentes configuraciones del entorno para asegurar la robustez del sistema.
← Volver a Semana 4