Bot‑Welle saugt OpenStreetMap aus – freie Kartendaten unter Druck

29.01.2026 | Allgemein, KI

Automatisierte Bots erzeugen extreme Anfragezahlen und belasten das gemeinnützige OpenStreetMap‑Projekt.

In Kürze

  • Massives Scraping: Hunderttausende koordinierte IPs greifen Daten ab
  • Steigende Betriebskosten und Risiko für Verfügbarkeit
  • Abwehr schwieriger: IP‑Blocking ineffektiv, Captchas und Provider‑Tools nur begrenzt

OpenStreetMap unter Bot‑Druck: Offene Kartendaten werden massenhaft abgefragt

Wenn du eine Navi‑App oder einen Routenplaner benutzt, stehen die Chancen gut, dass Daten aus OpenStreetMap (OSM) mitspielen. OSM ist die freie, gemeinschaftlich gepflegte Karte – eine Art Wikipedia für Straßen, Gebäude und Points of Interest. Aktuell aber hat das Projekt ein Problem: riesige Mengen automatisierter Anfragen saugen die offenen Kartendaten in großem Stil ab.

Was genau passiert?

Scraping heißt hier das systematische Auslesen von Daten durch Programme, also Bots oder Crawler. Solche Tools rufen OSM‑Server wiederholt und in großer Zahl ab, um die Karte lokal zu spiegeln oder die Daten in eigenen Diensten weiterzuverwenden. Die Folge sind extrem hohe Anfragezahlen, die weit über typischen Nutzerverkehr hinausgehen.

Warum das Druck macht

Mehr Anfragen bedeuten höhere Betriebskosten:

  • mehr Bandbreite
  • mehr Serverkapazität
  • und damit höhere Hosting‑Ausgaben für das gemeinnützige Projekt

Außerdem können die abgegriffenen Kartendaten in kommerziellen Diensten verwendet werden — zum Beispiel in:

  • Navigationsangeboten
  • Suchdiensten
  • als Grundlage für Anfragen an KI‑Chatbots

OpenStreetMap selbst hat sich zu den genauen Crawling‑Vorgängen bislang nicht detailliert geäußert.

Konkrete Beobachtungen aus dem Projekt

Ein Entwickler aus dem OSM‑Umfeld, Grant Slater, beschreibt einen schnellen Wandel: Früher hätten eine oder wenige IP‑Adressen mehr als 10.000 Anfragen gestellt. Aktuell würden innerhalb einer Woche rund 100.000 koordinierte IP‑Adressen aktiv, wobei jede Adresse mehrere Anfragen absetze. Das macht das einfache Blockieren einzelner IPs faktisch wirkungslos und erschwert die Abwehr.

Welche Gegenmaßnahmen es gibt

Provider wie Cloudflare oder Akamai bieten Lösungen an, die Bots früh erkennen und stoppen sollen, bevor die Anfragen die eigenen Server erreichen.

Eine verbreitete Gegenmaßnahme sind Captchas — Tests, die Menschen bestehen, Bots in der Regel nicht.

Allerdings sind solche Methoden nicht immer ideal: Sie können legitime Nutzer behindern und bei sehr großen, verteilten Bot‑Netzen nur begrenzt greifen.

Welche Risiken bestehen

Die Betreiber warnen, dass die anhaltende Belastung die finanzielle und technische Tragfähigkeit von OSM gefährden könnte. Weil OpenStreetMap ein offenes Angebot ist, wirken sich massive, automatisierte Abfragen nicht nur auf dieses Projekt aus, sondern stellen auch ein Problem für ähnliche freie Datenprojekte dar.

Was bisher noch offen ist

Details zu den Akteuren hinter den Scraping‑Wellen, zu den genauen Absichten und zu möglichen längerfristigen Gegenstrategien hat OSM bisher nicht umfassend veröffentlicht. Die Situation bleibt daher für die Community und Betreiber Anlass zur Sorge — und Gegenmaßnahmen bleiben gefragt, um die Infrastruktur und die freie Verfügbarkeit der Kartendaten zu schützen.

Quellen

  • Quelle: OpenStreetMap
  • Der ursprüngliche Artikel wurde hier veröffentlicht
  • Dieser Artikel wurde im Podcast KI-Briefing-Daily behandelt. Die Folge kannst du hier anhören.

💡Über das Projekt KI News Daily

Dieser Artikel wurde vollständig mit KI generiert und ist Teil des Projektes KI News Daily der Pickert GmbH.

Wir arbeiten an der ständigen Verbesserung der Mechanismen, können aber leider Fehler und Irrtümer nicht ausschließen. Sollte dir etwas auffallen, wende dich bitte umgehend an unseren Support und feedback[at]pickert.io

Vielen Dank! 🙏

Das könnte dich auch interessieren…