Gestrandet wie ein Vogel ohne Flügel liegt die Flugdrohne im Büro von Prof. Dr. Markus Richter, Fachbereich V. Die Rotoren, die das Gerät durch die Luft tragen, lagern ausgebaut daneben. Rund 14 Kilogramm ist die Spezialanfertigung inklusive Nutzlast schwer. An ihr soll ein Kamerasystem angebracht werden. „Ich hoffe, dass wir im nächsten Sommer endlich auf einem Feld mit der Drohne fliegen können“, sagt Richter. Er leitet das dreijährige Forschungsprojekt PlantSens II der Berliner Hochschule für Technik (BHT), das vom Bundesministerium für Ernährung und Landwirtschaft mit 300.000 Euro gefördert wird.
Das Fluggerät spielt eine zentrale Rolle. Die Wissenschaftler*innen wollen sie über ein Gemüsefelder fliegen lassen. Die Bordkameras sollen die Nutzpflanzen aus der Luft unter die Lupe nehmen. Anhand der Bilder sollen sich Krankheiten, Schädlingsbefall oder Wassermangel erkennen lassen. Die Feldversuche hätten längst stattfinden sollen. Das Projekt will seit dem Beginn im September 2020 nicht recht an Fahrt gewinnen. Es fehlen Mitarbeiter*innen. „Am Personalverfahren hängt das ganze Projekt“, sagt der Professor unzufrieden. Von zwei Halbtagesstellen sei in im Jahr 2022 nur eine für acht Monate besetzt gewesen.
PlantSens II – ein Wortspiel aus Plant (Pflanze) und Sensorik – setzt fort, was im Vorgängerprojekt entstanden ist. Darin gelang es, den Wasserbedarf von Nutzpflanzen automatisiert zu ermitteln. Die Forscher*innen hatten an der Decke eines Gewächshauses ein Schienensystem angebracht. Darauf fuhr eine Kamera-Plattform, deren Sensoren an Kontrollpunkten Bilder der darunter liegenden Tomaten aufnahmen. Ein Computer wertete die Daten aus und aktivierte bei Bedarf eine gezielte Bewässerung über ein Rohrsystem.
Diagnose von Krankheiten
Um die Wasserversorgung der Pflanzen zu ermitteln, nutzten die Wissenschaftler*innen zwei Verfahren. Eine Wärmebildkamera machte die Blatttemperatur sichtbar, die sich abhängig vom Wasserversorgungszustand der Pflanzen verändert. Eine zweite Kamera zeichnete kurzwellige Infrarotstrahlung auf: Über die unterschiedlichen Reflexionen im Wellenlängenbereich um 1.300 und 1.450 Nanometer lassen sich von Wassermangel negativ beeinflusste Pflanzenteile von Pflanzenteilen mit guter Wasserversorgung unterscheiden. Zusätzlich kamen zwei normale Fotokameras zum Einsatz, um die Pflanzen anhand des grünen Chlorophylls vom Boden unterscheidbar zu machen. Die identifizierten Pflanzenareale wurden dann wie eine Schnittmaske auf die Wärmebild- und Infrarot-Aufnahmen gelegt.
PlantSens II bringt das Konzept in die Luft und entwickelt es weiter. Die Kameras hängen nicht mehr an einem Schienenstrang, sondern unter einer Drohne – einem Hexacopter mit sechs Rotoren. Eine Gimbal-Aufhängung, die ruckartige Flugbewegungen ausgleicht, soll die Ausrichtung der Kameras stabilisieren
Die bisherige bildgebende Hyperspektralkamera wird von einem Modell ersetzt, das 200 Wellenlängenbereichen zwischen900 bis 1.700 Nanometer Reflexionswerte zuordnen kann. Dies ist notwendig, da neben der Wasserversorgung auch die Gesundheit der Pflanzen bestimmt werden soll. Das Team um Markus Richter vermutet, dass Krankheiten in unterschiedlichen Wellenlängen sichtbar und damit diagnostizierbar sind. „Ob dies funktioniert, müssen wir herausbekommen.“
Die neue Kamera erzeugt allerdings keine herkömmlichen Bilder. „Sie nimmt wie ein Scanner eine Zeile nach der nächsten auf.“ Während die Drohne über das Feld fliege, entstehe das Bild. Das Team erprobt die Zeilenkamera gegenwärtig in Richters Büro, wo sie an einem kurzen Schienenstrang angebracht ist. Was dort getestet wird, soll später auch während der Drohnenflüge funktionieren.
Knappe Ressource
Bei den geplanten Flügen im Freien soll sich die Drohne selbstständig anhand eines programmierten Flugplans orientieren. Um das Testareal will das Projektteam außerdem einen „Geofence“ ziehen, einen virtuellen Zaun, den die Drohne nicht überfliegen darf. Allerdings steuert immer ein Mensch die Drohne, da ein vollautonomer Flug in Deutschland nicht erlaubt ist.
Für eine Echtzeitübertragung der Kameradaten ist nach Angaben des Professors ein WLAN- oder ein 5-G-Mobilfunknetz notwendig. Für wahrscheinlicher in der Praxis hält er den Ansatz, die Daten nach dem Flug über die Landestation automatisch auf die BHT-Server zu übertragen. Die Datenbankstruktur stammt aus dem Vorgängerprojekt. Über eine Daten-Schnittstelle kann das System mit landwirtschaftlichen Maschinen kommunizieren. Bei Bedarf kann es Aufträge vergeben, die beispielsweise von autonom fahrenden Traktoren ausgeführt werden. Dafür übermittelt das System georeferenzierte, also mit Koordinaten versehene Kartendaten. Auf diese Weise lassen sich die Pflanzen zielgerichtet bewässern oder mit Pflanzenschutzmitteln behandeln.
Markus Richter – sein Fachgebiet ist gärtnerische Pflanzenproduktion und Produktionstechnik im Studiengang Gartenbauliche Phytotechnologie – sieht in PlantSens II wirtschaftliches Potenzial. Falls in der Zukunft daraus ein Produkt hervorgehe, sei dies für die Landwirtschaft interessant, vor allem für Großbetriebe. „Sie stehen unter Druck, möglichst wenig Pflanzenschutzmittel einzusetzen und zielgenau zu bewässern.“ Wasser sei eine knappe Ressource. Außerdem führe gezielte Bewässerung dazu, dass Pflanzen besser wüchsen und eine höhere Qualität hätten, so der Professor.
Forschungsprojekt PlantSens II – Informationen und Kontakt
- Prof. Dr. Markus Richter Fachbereich V
- Projektbeschreibung PlantSens II (Hortico40)
- Projektbeschreibung PlantSens I (BHT)