Ex‑Google‑Gründer wandeln riesige Video‑Archive in durchsuchbare Geschäftsdaten — ohne Code, kosteneffizient und skalierbar.
In Kürze
- Vision‑Language‑Modelle + günstige GPUs ermöglichen tiefere Videoanalyse
- Produkte: TV Pulse gestartet, DeepFrame‑Beta geplant für März 2026
- Seed‑Finanzierung 5,8 Mio. USD; Expansion in USA und Japan
Deine Server sind voller Videos — und die meisten liegen ungenutzt herum. In Unternehmen stapeln sich TV‑Archive, Überwachungsvideos und Ladenaufnahmen oft als sogenannte „dark data“: automatisch gesammelte, aber unbearbeitete Datenmengen, die in manchen Fällen Petabytes erreichen. Zwei Ex‑Google‑Mitarbeiter aus Tokio wollen das ändern.
Wer dahinter steckt
Aza Kai und Hiraku Yanagita haben lange bei Google Japan zusammengearbeitet und 2024 InfiniMind in Tokio gegründet. Sie beobachteten früh, dass viele Firmen zwar große Mengen an Video- und Audiomaterial speichern, aber kaum verwerten. Aus diesem Bedarf baute das Duo ein Produktangebot, das unbesehenes Rohmaterial in durchsuchbare Geschäftsdaten verwandeln soll.
Warum es jetzt möglich ist
- Zwischen 2021 und 2023 machten Vision‑Language‑Modelle große Fortschritte: Modelle, die Bild- oder Videoinhalte mit Sprache verknüpfen, wurden deutlich leistungsfähiger.
- Gleichzeitig fielen die Preise für GPUs und die Rechenleistung stieg weiter an.
Durch diese Kombination lassen sich heute komplexere Fragen an Videoinhalte stellen als früher, die über simples Objekttagging hinausgehen — und das auch in größerer Skalierung.
Was InfiniMind anbietet
InfiniMind baut eine Infrastruktur, die lange, unbetrachtete Video‑ und Audiobestände in strukturierte, durchsuchbare Daten umwandelt. Das System arbeitet ohne Code: Kund:innen liefern die Rohdaten, InfiniMind verarbeitet Bild, Ton und Sprache und liefert verwertbare Ergebnisse — etwa:
- gezielte Szenensuchen
- Sprechererkennung
- Ereignisfindung
Ein Beispiel für die Leistungsfähigkeit: Beliebige Abschnitte aus 200 Stunden Material lassen sich gezielt durchsuchen. Ein zentrales Ziel der Firma ist Kosten‑ und Rechen‑Effizienz bei großer Skalierbarkeit.
Produkte und erste Kund:innen
TV Pulse
Das erste Produkt heißt TV Pulse und startete im April 2025 in Japan. TV Pulse analysiert TV‑Inhalte in nahezu Echtzeit. Zu den Messgrößen gehören:
- Sichtbarkeit von Produkten
- Markenauftritte
- Kundensentiment
- PR‑Wirkung
Nach Pilotprojekten mit großen Sendern und Agenturen hat InfiniMind bereits zahlende Kund:innen, darunter Großhändler und Medienunternehmen.
DeepFrame
Das zweite Produkt, DeepFrame, ist als Langform‑Video‑Intelligenzplattform geplant. DeepFrame soll gezielt Szenen, Sprecher oder bestimmte Ereignisse in großen Mengen Material finden können. Eine Beta ist für März 2026 angesetzt, der vollständige Start für April 2026.
Marktpositionierung
Der Markt für Videoanalyse ist fragmentiert. Anbieter wie TwelveLabs liefern allgemeine Video‑APIs, die für vielfältige Nutzergruppen gedacht sind. InfiniMind positioniert sich anders: Die Firma konzentriert sich gezielt auf Unternehmen mit konkreten Einsatzfällen wie Überwachung, Sicherheit und tiefergehender Inhaltsanalyse und legt besonderen Wert auf Kostenkontrolle und Skalierbarkeit.
Finanzierung und Expansionspläne
InfiniMind hat in einer Seed‑Runde 5,8 Millionen US‑Dollar eingesammelt. Die Runde wurde von UTEC geführt; beteiligt sind:
- CX2
- Headline Asia
- Chiba Dojo
- ein AI‑Forscher, der als a16z Scout aktiv ist
Das Team verlegt seinen Sitz in die USA, behält aber ein Büro in Japan. Dort diente der Markt als Testfeld — wegen verfügbarer Hardware, Talenten und Fördermöglichkeiten. Mit dem Kapital will InfiniMind:
- die Entwicklung von DeepFrame vorantreiben
- die Infrastruktur ausbauen
- neue Mitarbeiter einstellen
- Kund:innen in Japan sowie den USA gewinnen
Wie die Gründer das sehen
Kai und Yanagita beschreiben ihre Arbeit als einen Schritt in Richtung breiter einsetzbarer Video‑Intelligenz: Mehr Verständnis von realen Szenen durch KI soll industrielle Anwendungen ermöglichen und zugleich technische Grenzen weiter verschieben.
Quellen
- Quelle: InfiniMind
- Der ursprüngliche Artikel wurde hier veröffentlicht
- Dieser Artikel wurde im Podcast KI-Briefing-Daily behandelt. Die Folge kannst du hier anhören.




