Automatisierte Bots erzeugen extreme Anfragezahlen und belasten das gemeinnützige OpenStreetMap‑Projekt.
In Kürze
- Massives Scraping: Hunderttausende koordinierte IPs greifen Daten ab
- Steigende Betriebskosten und Risiko für Verfügbarkeit
- Abwehr schwieriger: IP‑Blocking ineffektiv, Captchas und Provider‑Tools nur begrenzt
OpenStreetMap unter Bot‑Druck: Offene Kartendaten werden massenhaft abgefragt
Wenn du eine Navi‑App oder einen Routenplaner benutzt, stehen die Chancen gut, dass Daten aus OpenStreetMap (OSM) mitspielen. OSM ist die freie, gemeinschaftlich gepflegte Karte – eine Art Wikipedia für Straßen, Gebäude und Points of Interest. Aktuell aber hat das Projekt ein Problem: riesige Mengen automatisierter Anfragen saugen die offenen Kartendaten in großem Stil ab.
Was genau passiert?
Scraping heißt hier das systematische Auslesen von Daten durch Programme, also Bots oder Crawler. Solche Tools rufen OSM‑Server wiederholt und in großer Zahl ab, um die Karte lokal zu spiegeln oder die Daten in eigenen Diensten weiterzuverwenden. Die Folge sind extrem hohe Anfragezahlen, die weit über typischen Nutzerverkehr hinausgehen.
Warum das Druck macht
Mehr Anfragen bedeuten höhere Betriebskosten:
- mehr Bandbreite
- mehr Serverkapazität
- und damit höhere Hosting‑Ausgaben für das gemeinnützige Projekt
Außerdem können die abgegriffenen Kartendaten in kommerziellen Diensten verwendet werden — zum Beispiel in:
- Navigationsangeboten
- Suchdiensten
- als Grundlage für Anfragen an KI‑Chatbots
OpenStreetMap selbst hat sich zu den genauen Crawling‑Vorgängen bislang nicht detailliert geäußert.
Konkrete Beobachtungen aus dem Projekt
Ein Entwickler aus dem OSM‑Umfeld, Grant Slater, beschreibt einen schnellen Wandel: Früher hätten eine oder wenige IP‑Adressen mehr als 10.000 Anfragen gestellt. Aktuell würden innerhalb einer Woche rund 100.000 koordinierte IP‑Adressen aktiv, wobei jede Adresse mehrere Anfragen absetze. Das macht das einfache Blockieren einzelner IPs faktisch wirkungslos und erschwert die Abwehr.
Welche Gegenmaßnahmen es gibt
Provider wie Cloudflare oder Akamai bieten Lösungen an, die Bots früh erkennen und stoppen sollen, bevor die Anfragen die eigenen Server erreichen.
Eine verbreitete Gegenmaßnahme sind Captchas — Tests, die Menschen bestehen, Bots in der Regel nicht.
Allerdings sind solche Methoden nicht immer ideal: Sie können legitime Nutzer behindern und bei sehr großen, verteilten Bot‑Netzen nur begrenzt greifen.
Welche Risiken bestehen
Die Betreiber warnen, dass die anhaltende Belastung die finanzielle und technische Tragfähigkeit von OSM gefährden könnte. Weil OpenStreetMap ein offenes Angebot ist, wirken sich massive, automatisierte Abfragen nicht nur auf dieses Projekt aus, sondern stellen auch ein Problem für ähnliche freie Datenprojekte dar.
Was bisher noch offen ist
Details zu den Akteuren hinter den Scraping‑Wellen, zu den genauen Absichten und zu möglichen längerfristigen Gegenstrategien hat OSM bisher nicht umfassend veröffentlicht. Die Situation bleibt daher für die Community und Betreiber Anlass zur Sorge — und Gegenmaßnahmen bleiben gefragt, um die Infrastruktur und die freie Verfügbarkeit der Kartendaten zu schützen.
Quellen
- Quelle: OpenStreetMap
- Der ursprüngliche Artikel wurde hier veröffentlicht
- Dieser Artikel wurde im Podcast KI-Briefing-Daily behandelt. Die Folge kannst du hier anhören.




