Kalifornisches Start-up stellt Betrieb ein – KI zur Depressions‑Erkennung geht Open Source

03.04.2026 | Allgemein, KI

Kintsugi stellt Betrieb ein und gibt Kern‑KI frei.

In Kürze

  • Sprechmuster statt Fragebogen
  • FDA‑Zulassung fehlte
  • Code offen, Deepfake privat

Kintsugi, ein kalifornisches Startup, hat nach sieben Jahren Arbeit den Betrieb eingestellt — und große Teile seiner KI für die Öffentlichkeit freigegeben. Die Software war darauf ausgelegt, anhand von Sprechmustern Hinweise auf Depressionen oder Angststörungen zu liefern. Einen klinischen Freigabeschein der US‑Behörde FDA bekam das Team nicht; entscheidende Teile der Technik, etwa zur Erkennung synthetischer Stimmen, behält Kintsugi aus Sicherheitsgründen zurück.

Wie die Technik funktionieren sollte

Im Unterschied zu klassischen Fragebögen wie dem PHQ‑9 konzentrierte sich Kintsugis Modell weniger auf das, was du sagst, als darauf, wie du sprichst. Pausen, Sprechtempo, Satzbau und ähnliche Signale waren die Input‑Daten. Solche akustischen und prosodischen Merkmale werden in der Forschung mit psychischen Störungen in Verbindung gebracht. In einer Peer‑Review‑Studie berichtete das Unternehmen, dass bereits kurze Sprachproben Ergebnisse lieferten, die grob mit etablierten Selbsttests übereinstimmen. Welche genauen Merkmale das System am stärksten gewichtet hat, offenlegte Kintsugi allerdings nicht vollständig.

Warum die Zulassung scheiterte

Für einen Einsatz im Gesundheitswesen wäre eine FDA‑Zulassung nötig gewesen. Kintsugi ging den Weg über eine sogenannte De‑Novo‑Anmeldung, einen Prozess für neue Medizinprodukte ohne Vorgänger. Obwohl diese Route als schneller gilt, erwies sie sich als daten‑ und zeitintensiv — und als schlecht passend für lernende KI‑Systeme, die sich über Updates verändern.

Die Firma musste zudem Zeit investieren, um die Behörde in Fragen zu KI zu briefen. Zusätzliche Verzögerungen verursachten zeitweilige US‑Regierungsabschaltungen. Währenddessen gingen die Mittel aus.

Kurzfristige Finanzangebote lehnte Kintsugi ab — ein Beispielangebot war 50.000 $ pro Woche im Tausch gegen 1 Mio. $ Firmenanteile — und entschied sich stattdessen, den Großteil der Technologie als Open Source zu veröffentlichen. Diese Entscheidung stieß bei einigen Investoren auf Unmut.

Chancen und Risiken der Open‑Source‑Freigabe

Offener Quellcode kann anderen Teams den Zugang erleichtern und Weiterentwicklung ermöglichen. Gleichzeitig bringt die Veröffentlichung Missbrauchsrisiken mit sich: Arbeitgeber oder Versicherer könnten solche Werkzeuge außerhalb klinischer Auflagen einsetzen. Einmal im Netz, lässt sich die Nutzung schwer steuern.

  • Experten warnen außerdem, dass Open‑Source‑Pakete oft unvollständige Dokumentation enthalten — etwa zu Trainingsdaten und Validierungsprozessen. Das macht eine spätere FDA‑Zulassung für Nachnutzer komplizierter.
  • Sprachbasierte Systeme sind zudem anfällig für Fehler: Depressionen und Angst äußern sich sehr unterschiedlich je nach Individuum, Sprache und kulturellem Kontext.
  • Ohne umfangreiche, sorgfältig validierte Datensätze steigt das Risiko von Fehldiagnosen oder Fehlklassifikationen.

Was Kintsugi gesichert hielt — und neue Geschäftsfelder

Beim Experimentieren mit KI‑erzeugter Sprache stellte das Team fest, dass das Modell synthetische Stimmen von echten unterscheiden konnte. Diese Fähigkeit, Deepfakes zu erkennen, ist kommerziell relevant und fällt nicht in den Regulierungsbereich der FDA. Genau diese Sicherheitsfunktion wurde bisher nicht offengelegt.

Blick nach vorn

Gründerin Grace Chang sagte, sie hoffe, dass andere Teams auf der Arbeit aufbauen und die Zulassungsschritte zu Ende bringen. Sie wies zugleich darauf hin, dass die Spannung zwischen Startup‑Tempo und medizinischer Regulierung weitere Projekte ausbremsen könnte — und äußerte den Wunsch, dass das nicht abschreckend wirkt.

Quellen

  • Quelle: Kintsugi / FDA
  • Der ursprüngliche Artikel wurde hier veröffentlicht
  • Dieser Artikel wurde im Podcast KI-Briefing-Daily behandelt. Die Folge kannst du hier anhören.

💡Über das Projekt KI News Daily

Dieser Artikel wurde vollständig mit KI generiert und ist Teil des Projektes KI News Daily der Pickert GmbH.

Wir arbeiten an der ständigen Verbesserung der Mechanismen, können aber leider Fehler und Irrtümer nicht ausschließen. Sollte dir etwas auffallen, wende dich bitte umgehend an unseren Support und feedback[at]pickert.io

Vielen Dank! 🙏

Das könnte dich auch interessieren…

Studie: So floriert ein Markt für KI‑Nacktbilder auf Telegram

Studie: So floriert ein Markt für KI‑Nacktbilder auf Telegram

KI‑Tools auf Telegram verbreiten und verkaufen nicht‑einvernehmliche Intimbilder.In Kürze2,8 Mio. Nachrichten, Nudifying‑Bots häufigArchive und Abos verkaufen Bilder gegen ZahlungForscher fordern EU‑Regeln und VLOP‑Einstufung Fast drei Millionen Telegram‑Nachrichten,...