👀 TL;DR
🧠 Warum ich das gemacht hab
“Build cool stuff first, debug later.” – Ich, 2018
🛠️ Hardware-Setup aka „Was steckt drin?“
✨ Komponentenliste:
- Frame: 450er Carbon-Quadcopter – stabil, leicht, und sieht böse aus
- Motoren & ESCs: 4× 920KV Brushless mit 30A ESCs – we got power
- Flugcontroller: DJI Naza-M V2 + GPS – das Hirn für sauberes Fliegen
- Akku: 4S LiPo, 5200mAh – Flugzeit ≈ genug für Panik & Begeisterung
- Onboard-Computer: Raspberry Pi 3 → später Jetson Nano (weil YOLOv2 den Pi grillt)
- Sensorik: HC-SR04 Ultraschallsensoren für Distanz – basic but effective
- Kamera: Pi Cam V2 (8MP) – “Ich sehe was, was du nicht siehst…”
🧠 KI, Baby!
👓 Computer Vision Stack:
- OpenCV: für Farb- & Kantenerkennung, Motion Detection & Nachverfolgung
- TensorFlow 1.x: YOLOv2 → später SSD MobileNet (leichter, schneller)
- Python: Der nervöse Dirigent, der alles orchestriert
- Serielle Kommunikation: damit der Pi dem DJI sagt: "Dude, nach links!"
📷 Kamera erkennt: Person 🧠 Drohne denkt: Follow-Modus aktiviert 🕹️ DJI sagt: „Roger that“ ✈️ Action.
🧠 Die Drohne kann:
😅 Technische Stolpersteine (und wie ich fast den Pi gekocht hab)
🔥 Rechenleistung:
- YOLOv2 auf Raspberry Pi? 🤡 Nope.
- Lösung: Modell komprimieren & Jetson Nano benutzen → Problem gelöst, Lüfter angeschrien.
🐢 Latenz:
- Kamera → Modell → Reaktion = Delay = Drohne fliegt in die Hecke.
- Lösung: Async-Processing, Timings tunen, Modelle optimieren.
🛰️ GPS-Probleme:
- Besonders in Bodennähe war das GPS zu grob für präzise Reaktionen.
- Lösung: Kompensation mit Sensorik + Kameraauswertung
“Warum steht die Drohne? GPS dachte, sie sei in Kanada.”
📌 Fazit – Was ich gelernt hab:
- KI in Embedded-Systemen = 🧠 + 🔋 + 🤬
- Mit etwas Geduld und einem guten Plan kriegt man eine autonom agierende Drohne gebaut
- Open Source + Maker-Mentalität = mächtige Kombination
🧩 Nächste Schritte?
Fehler beim Laden des Kommentarbereichs.