WAVE-28861 UGV Beast ROS 2 Robot AI Open source 6 roues 4WD, double contrôleur, corps entièrement métallique, adapté pour Raspberry Pi. Raspberry Pi 5 non inclus. (Pan-Tilt inclus)
Aperçu des caractéristiques
Le kit UGV Beast ROS2 est un robot IA conçu pour l'exploration et la création avec un excellent potentiel d'expansion, basé sur ROS 2 et équipé d'un Lidar et d'une caméra de profondeur, reliant de manière transparente votre imagination à la réalité. Conçu pour les passionnés de technologie, les créateurs ou les débutants en programmation, c'est le choix idéal pour explorer le monde de la technologie intelligente.
Équipé d'un ordinateur Raspberry Pi haute performance pour relever les défis des stratégies et des fonctions complexes, et inspirer votre créativité. Adopte une conception à double contrôleur, combinant les fonctions d'intelligence artificielle de haut niveau du contrôleur hôte avec les opérations de base à haute fréquence du sous-contrôleur, rendant chaque opération précise et fluide.
Facile à contrôler à distance via l'application Web UGV Beast sans télécharger de logiciel, il suffit d'ouvrir votre navigateur et de commencer votre voyage. Vous pouvez utiliser les fonctions ROS 2 de base du robot sans installer de machine virtuelle sur le PC. Prenant en charge la transmission vidéo en temps réel à haute fréquence d'images et de multiples fonctions de vision artificielle, l'UGV Beast est une plateforme idéale pour concrétiser vos idées et votre créativité.
Specifications
Dimensions : 196,82x231,46x251,78mm
Poids : ~2411g
Hauteur du châssis : 25mm
Angle d'inclinaison panoramique (DOF) : 2
Couple du servo de pan-tilt : 30kg.cm
Servo Pan-Tilt : Servo ST3215
Contrôleur hôte : Raspberry Pi 5 / 4B (NON inclus)
Prise en charge du système hôte : Debian Bookworm
Version ROS2 : ROS2-HUMBLE-LTS
Champ de vision de la caméra : 160°.
Alimentation électrique : Module UPS 3S
Support de batterie : 3x 18650 Batterie Lithium (NON incluse)
Méthodes de contrôle des démonstrations : Application web / programmation interactive Jupyter Lab
Vitesse maximale par défaut : 0,35 m/s
Nombre de roues motrices : 2
Matériau de la suspension : Acier inoxydable
Largeur des pneus : 40 mm
Rayon de braquage minimal : 0 m (rotation in situ)
Basé sur Raspberry Pi
Prend en charge le Raspberry Pi 5 / 4B, avec des performances informatiques puissantes pour gérer des tâches plus complexes, offrant plus de possibilités
Collaboration et performances accrues
Le contrôleur hôte adopte le Raspberry Pi pour la vision artificielle et la planification stratégique, et le sous-contrôleur utilise l'ESP32 pour le contrôle des mouvements et le traitement des données des capteurs.
OS Raspberry Pi + ROS2 Docker
Garantit des performances avancées en matière de prise de décision pour le robot et la compatibilité du système en même temps
Pan-Tilt omnidirectionnel flexible à 360
Équipé d'un appareil photo 5MP à grand angle 160° pour capturer tous les détails
Source ouverte pour toutes les ressources de développement ROS2
Open Source pour toutes les démonstrations du contrôleur hôte et du sous-contrôleur, y compris le fichier de description du robot (modèle URDF), le nœud de traitement des données des capteurs du sous-contrôleur, les algorithmes de contrôle cinématique et divers nœuds de contrôle à distance.
Intégration de diverses méthodes de cartographie ROS2
Répondre aux besoins de cartographie dans différents scénarios
Plusieurs capteurs rentables
Adopte de multiples capteurs présentant un bon rapport coût-efficacité et une grande praticité.
Exploration et cartographie automatiques
Utilisation de la boîte à outils SLAM pour mettre en œuvre simultanément les fonctions de cartographie et de navigation dans des environnements inconnus, ce qui simplifie le processus d'exécution des tâches. Le robot UGV peut explorer de manière autonome des zones inconnues et réaliser la cartographie, ce qui convient à des applications sans contraintes.
Prise en charge de l'interaction en langage naturel
Grâce à la technologie LLM (Large Language Model), les utilisateurs peuvent donner des ordres au robot en langage naturel, ce qui lui permet d'effectuer des tâches telles que le déplacement, la cartographie et la navigation.
Fournit un outil de console Web
Vous pouvez utiliser les fonctions de base de ROS 2 sur le Web sans installer de machine virtuelle sur le PC. Cet outil permet un fonctionnement multiplateforme sur les tablettes Android ou IOS. Les utilisateurs peuvent simplement ouvrir un navigateur et contrôler le robot pour le déplacer, le cartographier, le faire naviguer et effectuer d'autres opérations.
Débogage de la simulation Gazebo
Fournit le mode robot Gazebo et une bibliothèque complète de fonctionnalités pour le débogage de simulation, vous aidant à vérifier et à tester le système au cours des premières étapes du développement.
Poursuivre l'aventure à la tombée de la nuit
Éclairage LED haute luminosité pour des images claires dans des conditions de faible éclairage
Convient pour l'extension tactique
Livré avec un rail de 21 mm de large et un servo bus de haute précision et à couple élevé de 30 kg.cm pour l'extension tactique
Rail standard en aluminium
Livré avec deux rails à profil européen standard de 1020 mm, il permet d'installer des périphériques supplémentaires à l'aide d'écrous pour répondre à différents besoins, ce qui permet d'élargir les scénarios d'opérations spéciales.
Conduite en terrain complexe
Adopte un châssis de robot mobile sur chenilles avec des systèmes de suspension indépendants pour une capacité de franchissement hors route plus stable.
Transmission vidéo en temps réel WebRTC
Adopte l'application Web légère Flask, basée sur la transmission en temps réel à très faible latence WebRTC, utilisant le langage Python et facile à étendre, fonctionnant de manière transparente avec OpenCV.
Détection des visages : Capture automatique d'images ou de vidéos
Basé sur OpenCV pour réaliser la reconnaissance des visages, permet la prise automatique de photos ou l'enregistrement de vidéos une fois qu'un visage est reconnu.
Reconnaissance des gestes : Interaction de l'IA avec le langage corporel
Combine OpenCV et MediaPipe pour réaliser le contrôle gestuel de l'inclinaison panoramique et de la LED
En-tête étendu GPIO 40 broches
Le robot n'utilise que l'interface URAT du Raspberry Pi GPIO pour la communication, en adaptant le connecteur 40 broches du côté extérieur de la carte de pilotage pour étendre les périphériques et les fonctions.
Communication sans fil ESP-NOW entre robots
Grâce au protocole de communication ESP-NOW, plusieurs robots peuvent communiquer entre eux sans adresse IP ou MAC, ce qui permet une collaboration multi-appareils avec une communication à faible latence de 100 microsecondes.
Outline Dimensions
Contenu de l'emballage