← Alle Artikel

Warum gelb besser ist als grün

Der NDVI — Normalized Difference Vegetation Index — ist so etwas wie der Standardreflex in der Fernerkundung. Er vergleicht Infrarot- und Rot-Reflektanz und erkennt damit zuverlässig Vegetation. Das Problem: jede Vegetation. Wald, Wiese, Getreide, Raps — alles grünt, alles hat hohe NDVI-Werte. Ein Rapsfeld im Mai ist für den NDVI kaum von einer Kuhweide zu unterscheiden, was, gelinde gesagt, für einen Rapsblüten-Tracker eher suboptimal ist. Stellt sich die Frage: Geht das besser?

Geht es. Blühender Raps hat nämlich eine ziemlich auffällige spektrale Eigenschaft — er ist intensiv gelb (Überraschung ;-)). Gelbe Oberflächen reflektieren stark im Grünbereich des Spektrums, schwach im Blaubereich. Genau dieses Ungleichgewicht nutzt der NDYI — der Normalized Difference Yellowness Index. Statt Infrarot und Rot vergleicht er schlicht und ergreifend Grün und Blau. Keine exotischen Bandkombinationen, kein Infrarot, nichts Kompliziertes. Blühender Raps erzeugt dabei ein starkes Signal, Wald bleibt nahe Null, Wiesen und Getreide liegen deutlich darunter. Spektral gesehen ist Raps ein Leuchtturm — und der NDYI ist das Fernrohr, das gezielt nach diesem Leuchtturm sucht.

Nun reicht der NDYI allein freilich nicht — so einfach ist es dann doch nicht. Jedes Pixel durchläuft eine ganze Kaskade von Plausibilitätsprüfungen: Ist es überhaupt gültig? Was sagt die Szenenklassifikation — Wolke, Wasser, Bebauung fliegen sofort raus. Ist es hell genug (damit man Wald und Schattenflächen ausschließt)? Ist der NDVI zu hoch — denn dichter Wald reflektiert massiv Infrarot, Raps weniger, also Obergrenze setzen? Stimmt das Grün-Rot-Verhältnis? Die billigsten Checks kommen zuerst, die rechenintensiveren zuletzt — eine bewußte Optimierung, wenn man Millionen Pixel verarbeiten muß. Man will ja nicht auf dem Server Däumchen drehen, während der Algorithmus sich durch sinnlose Berechnungen quält.

Die eigentliche Berechnung läuft direkt auf den Copernicus-Servern — d. h. man schickt den Algorithmus zu den Daten, nicht die Daten zum Algorithmus. Kein Rohdaten-Download, keine lokale Verarbeitung von Gigabyte-Satellitenschnitten. Was zurückkommt, ist ein fertiges Bild mit markierten Blühstellen. Die Nachverarbeitung gruppiert dann zusammenhängende Pixel zu Clustern, verwirft Rauschen, komprimiert zu Polygonen und rechnet alles in geographische Koordinaten um. Am Ende steht eine Sammlung von Polygonen mit Angaben zu Blühintensität und Fläche — fertig für die Karte.

Und warum nicht Machine Learning, fragt der geneigte Leser? Weil es schlicht nicht nötig ist. Raps ist spektral so auffällig, daß ein handgeschriebener Index mit Plausibilitätsprüfungen vollkommen ausreicht. Ein ML-Modell bräuchte gelabelte Trainingsdaten (die man erst mal haben muß), Serving-Infrastruktur, ggf. GPU-Ressourcen — usw usf. Der NDYI braucht eine Handvoll Vergleiche pro Pixel. Für die Frage „Blüht hier gerade Raps?" ist ein spektraler Index das richtige Werkzeug — manchmal ist die einfachste Lösung eben auch die beste. Nicht jedes Problem braucht einen Vorschlaghammer. :-)