InfiniMind: Ex‑Google-Team macht ungenutzte Videos durchsuchbar

10.02.2026 | Allgemein, KI

Ex‑Google‑Gründer wandeln riesige Video‑Archive in durchsuchbare Geschäftsdaten — ohne Code, kosteneffizient und skalierbar.

In Kürze

  • Vision‑Language‑Modelle + günstige GPUs ermöglichen tiefere Videoanalyse
  • Produkte: TV Pulse gestartet, DeepFrame‑Beta geplant für März 2026
  • Seed‑Finanzierung 5,8 Mio. USD; Expansion in USA und Japan

Deine Server sind voller Videos — und die meisten liegen ungenutzt herum. In Unternehmen stapeln sich TV‑Archive, Überwachungsvideos und Ladenaufnahmen oft als sogenannte „dark data“: automatisch gesammelte, aber unbearbeitete Datenmengen, die in manchen Fällen Petabytes erreichen. Zwei Ex‑Google‑Mitarbeiter aus Tokio wollen das ändern.

Wer dahinter steckt

Aza Kai und Hiraku Yanagita haben lange bei Google Japan zusammengearbeitet und 2024 InfiniMind in Tokio gegründet. Sie beobachteten früh, dass viele Firmen zwar große Mengen an Video- und Audiomaterial speichern, aber kaum verwerten. Aus diesem Bedarf baute das Duo ein Produktangebot, das unbesehenes Rohmaterial in durchsuchbare Geschäftsdaten verwandeln soll.

Warum es jetzt möglich ist

  • Zwischen 2021 und 2023 machten Vision‑Language‑Modelle große Fortschritte: Modelle, die Bild- oder Videoinhalte mit Sprache verknüpfen, wurden deutlich leistungsfähiger.
  • Gleichzeitig fielen die Preise für GPUs und die Rechenleistung stieg weiter an.

Durch diese Kombination lassen sich heute komplexere Fragen an Videoinhalte stellen als früher, die über simples Objekttagging hinausgehen — und das auch in größerer Skalierung.

Was InfiniMind anbietet

InfiniMind baut eine Infrastruktur, die lange, unbetrachtete Video‑ und Audiobestände in strukturierte, durchsuchbare Daten umwandelt. Das System arbeitet ohne Code: Kund:innen liefern die Rohdaten, InfiniMind verarbeitet Bild, Ton und Sprache und liefert verwertbare Ergebnisse — etwa:

  • gezielte Szenensuchen
  • Sprechererkennung
  • Ereignisfindung

Ein Beispiel für die Leistungsfähigkeit: Beliebige Abschnitte aus 200 Stunden Material lassen sich gezielt durchsuchen. Ein zentrales Ziel der Firma ist Kosten‑ und Rechen‑Effizienz bei großer Skalierbarkeit.

Produkte und erste Kund:innen

TV Pulse

Das erste Produkt heißt TV Pulse und startete im April 2025 in Japan. TV Pulse analysiert TV‑Inhalte in nahezu Echtzeit. Zu den Messgrößen gehören:

  • Sichtbarkeit von Produkten
  • Markenauftritte
  • Kundensentiment
  • PR‑Wirkung

Nach Pilotprojekten mit großen Sendern und Agenturen hat InfiniMind bereits zahlende Kund:innen, darunter Großhändler und Medienunternehmen.

DeepFrame

Das zweite Produkt, DeepFrame, ist als Langform‑Video‑Intelligenzplattform geplant. DeepFrame soll gezielt Szenen, Sprecher oder bestimmte Ereignisse in großen Mengen Material finden können. Eine Beta ist für März 2026 angesetzt, der vollständige Start für April 2026.

Marktpositionierung

Der Markt für Videoanalyse ist fragmentiert. Anbieter wie TwelveLabs liefern allgemeine Video‑APIs, die für vielfältige Nutzergruppen gedacht sind. InfiniMind positioniert sich anders: Die Firma konzentriert sich gezielt auf Unternehmen mit konkreten Einsatzfällen wie Überwachung, Sicherheit und tiefergehender Inhaltsanalyse und legt besonderen Wert auf Kostenkontrolle und Skalierbarkeit.

Finanzierung und Expansionspläne

InfiniMind hat in einer Seed‑Runde 5,8 Millionen US‑Dollar eingesammelt. Die Runde wurde von UTEC geführt; beteiligt sind:

  • CX2
  • Headline Asia
  • Chiba Dojo
  • ein AI‑Forscher, der als a16z Scout aktiv ist

Das Team verlegt seinen Sitz in die USA, behält aber ein Büro in Japan. Dort diente der Markt als Testfeld — wegen verfügbarer Hardware, Talenten und Fördermöglichkeiten. Mit dem Kapital will InfiniMind:

  • die Entwicklung von DeepFrame vorantreiben
  • die Infrastruktur ausbauen
  • neue Mitarbeiter einstellen
  • Kund:innen in Japan sowie den USA gewinnen

Wie die Gründer das sehen

Kai und Yanagita beschreiben ihre Arbeit als einen Schritt in Richtung breiter einsetzbarer Video‑Intelligenz: Mehr Verständnis von realen Szenen durch KI soll industrielle Anwendungen ermöglichen und zugleich technische Grenzen weiter verschieben.

Quellen

  • Quelle: InfiniMind
  • Der ursprüngliche Artikel wurde hier veröffentlicht
  • Dieser Artikel wurde im Podcast KI-Briefing-Daily behandelt. Die Folge kannst du hier anhören.

💡Über das Projekt KI News Daily

Dieser Artikel wurde vollständig mit KI generiert und ist Teil des Projektes KI News Daily der Pickert GmbH.

Wir arbeiten an der ständigen Verbesserung der Mechanismen, können aber leider Fehler und Irrtümer nicht ausschließen. Sollte dir etwas auffallen, wende dich bitte umgehend an unseren Support und feedback[at]pickert.io

Vielen Dank! 🙏

Das könnte dich auch interessieren…

KI gegen Löhne: Wie agentische Systeme Bewertungen antreiben

KI gegen Löhne: Wie agentische Systeme Bewertungen antreiben

Investoren verlagern Fokus von SaaS‑Abos auf KI, die Lohnkosten ersetzt.In KürzeKI trifft Löhne statt IT‑BudgetsAgentic AI kann komplette Arbeitsabläufe übernehmenHohe Bewertungen (Anthropic ~350 Mrd) belasten Softwareaktien Du hast sicher die Schlagzeilen um hohe...