Cover image of Autonome Drohne – DIY trifft auf KI, OpenCV und DJI photo
Aland Baban
Full Stack Developer
February 18, 20185 min

Autonome Drohne – DIY trifft auf KI, OpenCV und DJI

Drohne? Selbst gebaut. Flugcontroller? DJI. KI? YOLOv2 + SSD MobileNet. Rechenpower? Erst Pi, dann Jetson. Ziel? Eine Drohne, die sieht, denkt und selbst entscheidet. Endboss? Rechenleistung vs. Echtzeitfähigkeit. Ich wollte mal wissen: Wie weit kommt man eigentlich mit Open-Source, etwas Lötzinn und einem YouTube-Algorithmus, der einem nachts um 2 "How to build your own AI drone"-Videos vorschlägt? Spoiler: Man kommt ziemlich weit. Mein Ziel war nicht nur eine Drohne zu bauen, die irgendwie fliegt – sondern eine, die mitdenkt. Also Dinge erkennt, Entscheidungen trifft und selbstständig Kursänderungen vornimmt.
“Build cool stuff first, debug later.” – Ich, 2018
Hier wurde geschraubt, geflucht, gelötet – und am Ende flog das Ding tatsächlich. Und zwar nicht ins nächste Fenster. 🎉
  • Frame: 450er Carbon-Quadcopter – stabil, leicht, und sieht böse aus
  • Motoren & ESCs: 4× 920KV Brushless mit 30A ESCs – we got power
  • Flugcontroller: DJI Naza-M V2 + GPS – das Hirn für sauberes Fliegen
  • Akku: 4S LiPo, 5200mAh – Flugzeit ≈ genug für Panik & Begeisterung
  • Onboard-Computer: Raspberry Pi 3 → später Jetson Nano (weil YOLOv2 den Pi grillt)
  • Sensorik: HC-SR04 Ultraschallsensoren für Distanz – basic but effective
  • Kamera: Pi Cam V2 (8MP) – “Ich sehe was, was du nicht siehst…”
Die eigentliche „Magie“ passiert nicht im Flugcontroller, sondern in der Software. Und ja – die Drohne sieht was. Und denkt (so halb).
  • OpenCV: für Farb- & Kantenerkennung, Motion Detection & Nachverfolgung
  • TensorFlow 1.x: YOLOv2 → später SSD MobileNet (leichter, schneller)
  • Python: Der nervöse Dirigent, der alles orchestriert
  • Serielle Kommunikation: damit der Pi dem DJI sagt: "Dude, nach links!"
📷 Kamera erkennt: Person 🧠 Drohne denkt: Follow-Modus aktiviert 🕹️ DJI sagt: „Roger that“ ✈️ Action.
✅ Objekte im Livebild erkennen (Personen, Farben, Formen) ✅ Zielen folgen (Follow-Me-Modus) ✅ Hindernissen ausweichen (Ultraschall-Ping Pong) ✅ Situativ Entscheidungen treffen – wie "oh ein Baum – Kurswechsel"
  • YOLOv2 auf Raspberry Pi? 🤡 Nope.
  • Lösung: Modell komprimieren & Jetson Nano benutzen → Problem gelöst, Lüfter angeschrien.
  • Kamera → Modell → Reaktion = Delay = Drohne fliegt in die Hecke.
  • Lösung: Async-Processing, Timings tunen, Modelle optimieren.
  • Besonders in Bodennähe war das GPS zu grob für präzise Reaktionen.
  • Lösung: Kompensation mit Sensorik + Kameraauswertung
“Warum steht die Drohne? GPS dachte, sie sei in Kanada.”
  • KI in Embedded-Systemen = 🧠 + 🔋 + 🤬
  • Mit etwas Geduld und einem guten Plan kriegt man eine autonom agierende Drohne gebaut
  • Open Source + Maker-Mentalität = mächtige Kombination
Ich hab’s nicht nur gebaut – ich hab’s auch verstanden. Und es hat irre Spaß gemacht. Selbst wenn mein WLAN manchmal dachte, die Drohne sei ein neuer Client 😅 Falls dich das Thema kickt: → Baue gerade an einem neuen Modell mit SLAM, Lidar und ROS 2. → Mehr dazu bald auf meinem Blog 🚀 “In a world full of drones... be the one that thinks.” 🤖