Gemini führt automatische Mehrschritt‑Aufgaben ein, läuft aber nur eingeschränkt auf wenigen Geräten und Regionen.
In Kürze
- Beta automatisiert einfache Tasks wie Taxi oder Essensbestellung
- Nur ausgewählte Apps; Pixel 10/Pro und Galaxy S26; USA & Südkorea
- Start nur per Bestätigung, Tasks laufen geschützt on‑device; Scam‑Erkennung erweitert
Google bringt eine Beta, die Routineaufgaben für dich erledigt — aber noch mit Einschränkungen.
Was ist neu?
Gemini auf Android bekommt eine Automatisierungs‑Beta: Die KI kann einfache, mehrschrittige Aufgaben übernehmen, etwa eine Uber‑Fahrt buchen oder Essen bestellen. Praktisch heißt das: Du gibst bestimmte To‑dos an Gemini ab, die Abläufe dann selbstständig durchführt — vorerst aber nur in engen Grenzen.
Welche Apps und Geräte werden unterstützt?
- Apps: Anfangs sind nur ausgewählte Apps aus den Bereichen Essensbestellung, Lebensmitteleinkauf und Fahrdienste dabei.
- Geräte: Die Funktion läuft vorerst ausschließlich in der Gemini‑App auf Pixel 10, Pixel 10 Pro und der Samsung Galaxy S26‑Serie.
- Regionen: Zuerst verfügbar in den USA und Südkorea.
Wie wird mit Kontrolle und Sicherheit umgegangen?
Automationen starten nur, wenn du sie ausdrücklich anstößt. Du kannst den Fortschritt in Echtzeit verfolgen und die Handlung abbrechen, falls etwas schiefgeht. Technisch laufen diese Tasks in einem geschützten, virtuellen Fenster auf dem Telefon und haben nur begrenzten Zugriff auf die beteiligten Apps — nicht auf alle deine Daten.
Weitere Änderungen in dieser Runde
- Anruf‑Scam‑Erkennung: Diese Funktion, die es bereits auf Pixel‑Phones in mehreren Ländern gab, kommt jetzt auch auf die Galaxy S26‑Geräte in den USA.
- Betrugs‑SMS: Gemini‑Modelle, die direkt auf dem Gerät laufen („on‑device“), erkennen betrügerische SMS bereits auf Pixel‑10‑Modellen in den USA, Kanada und dem UK; die Unterstützung für Galaxy S26 soll folgen. On‑device bedeutet, die KI verarbeitet die Daten lokal auf dem Telefon, was oft schnelle Reaktionen und mehr Datenschutz bringt.
- Circle to Search: Du kannst jetzt nicht nur einzelne Objekte markieren, sondern alle sichtbaren Gegenstände auf dem Bildschirm gleichzeitig identifizieren — zum Beispiel jedes Kleidungsstück und Accessoire in einem Outfit.
Worin steht das im größeren Kontext?
Google verteilt Verbesserungen für Gemini regelmäßig über Android‑Updates und die Pixel‑Drops. Mit diesen Schritten zieht das Unternehmen in Richtung mehr Assistenzfunktionen für alltägliche Aufgaben; ähnliche Automatisierungsansätze bieten auch OpenAI (ChatGPT), Anthropic (Cowork) oder Tools wie OpenClaw. Apple hinkt derweil mit einer umfassenderen Siri‑Lösung hinterher; deren Einführung wurde erneut verschoben.
Quellen
- Quelle: Google / Gemini
- Der ursprüngliche Artikel wurde hier veröffentlicht
- Dieser Artikel wurde im Podcast KI-Briefing-Daily behandelt. Die Folge kannst du hier anhören.




