Forscher in Shanghai entwickeln das Science Context Protocol (SCP) als offenen Standard, damit KI‑Agenten plattformübergreifend Forschungsressourcen koordinieren.
In Kürze
- Offener Standard verbindet Modelle, Datenbanken, Tools und Geräte
- Hub plant, überwacht und validiert Experiment‑Workflows
- 1.600 registrierte Tools; Anwendungen von Proteinvorhersage bis Pipettier‑Roboter
Forscher aus Shanghai wollen KI‑gestützte Forschung über Institutionen und Werkzeuge hinweg vernetzen — mit einem offenen Standard namens Science Context Protocol (SCP). Ziel ist ein System, in dem spezialisierte KI‑Agenten zusammenarbeiten können, statt in isolierten, auf einzelne Workflows beschränkten Inseln zu bleiben.
Worum es geht
Das SCP stammt vom Shanghai Artificial Intelligence Laboratory und ist als Open‑Source‑Standard angelegt. Es soll ermöglichen, dass verschiedene Forschungsplattformen, Datenbanken, KI‑Modelle und sogar physische Laborgeräte miteinander kommunizieren und Aufgaben koordinieren. Kurz: KI‑Agenten sollen Fähigkeiten über Plattformen hinweg finden, kombinieren und gemeinsame Experimente durchführen können.
Warum das nötig ist
Viele existierende Systeme — etwa A‑Lab, ChemCrow oder Coscientist — funktionieren gut innerhalb ihrer eigenen Abläufe, lassen sich aber schwer über Institutionen hinweg teilen. Das führt zu Fragmentierung: Daten, Tools und Automatisierungen bleiben in Silos. SCP zielt darauf, diese Insellösungen zu verbinden und Interoperabilität herzustellen.
Aufbau auf bestehenden Ideen
SCP setzt auf dem Model Context Protocol (MCP) von Anthropics auf, das seit November 2024 als Standard für die Verbindung von KI‑Modellen mit externen Datenquellen gilt. Die SCP‑Erweiterungen adressieren speziell wissenschaftliche Workflows — von kompletten Experimentprotokollen über Hochdurchsatz‑Versuche bis zur Koordination mehrerer spezialisierter Agenten.
Kernbausteine des SCP
- Einheitliche Ressourcen‑Integration: SCP definiert eine gemeinsame Spezifikation zur Beschreibung und Ansprache von Forschungsressourcen — Software, KI‑Modelle, Datenbanken und Laborgeräte. So können Agenten gezielt nach verfügbaren Fähigkeiten suchen und sie kombinieren.
- Orchestriertes Experiment‑Lifecycle‑Management: Eine Service‑Architektur mit einem zentralen SCP‑Hub und verteilten SCP‑Servern verwaltet den Lebenszyklus von Experimenten: Registrierung, Planung, Ausführung, Überwachung und Archivierung. Feingranulare Authentifizierung und nachvollziehbare Workflows sollen Reproduzierbarkeit und Kontrolle sicherstellen.
Der SCP‑Hub als Planer und Koordinator
Der Hub fungiert als Registry für Tools, Datensätze, Agenten und Instrumente. Er zerlegt Forschungsziele in konkrete Aufgaben, erstellt mehrere ausführbare Pläne und bewertet diese nach Abhängigkeiten, geschätzter Dauer, Risiko und Kosten. Der ausgewählte Workflow wird in einem strukturierten, maschinenlesbaren Format (z. B. JSON) gespeichert und dient als verbindlicher „Vertrag“ zwischen den Beteiligten. Während der Ausführung überwacht der Hub Fortschritt, validiert Ergebnisse und kann bei Problemen Warnungen oder Fallback‑Strategien auslösen.
Was heute schon läuft
Auf SCP basiert die Intern‑Discovery‑Plattform, in der aktuell über 1.600 interoperable Tools registriert sind.
Die Verteilung nach Fachgebieten:
- Biologie: 45,9 %
- Physik: 21,1 %
- Chemie: 11,6 %
- Rest: Mechanik, Materialwissenschaften, Mathematik und Informatik
Nach Funktionen dominieren:
- Computational Tools: 39,1 %
- Datenbanken: 33,8 %
- Weitere: Modell‑Services, Laboroperationen und Literatursuche
Typische Anwendungen:
- Proteinstruktur‑Vorhersage
- Molekül‑Docking
- Automatisierte Pipettier‑Anweisungen für Roboter
Konkrete Einsatzszenarien
- Protokoll‑Extraktion: Ein PDF‑Laborprotokoll wird automatisch in maschinenlesbare Schritte übersetzt und auf einer Roboterplattform ausgeführt — vom Aufsetzen der Reagenzien bis zur Messung.
- Wirkstoff‑Screening: Aus einer Liste von 50 Molekülen berechnet ein Workflow Drug‑likeness‑ und Toxizitätswerte, filtert Kandidaten, bereitet ein Zielprotein für Docking vor und identifiziert am Ende zwei vielversprechende Moleküle. Dafür arbeiten mehrere SCP‑Server zusammen — für Datenbankabfragen, Rechenaufgaben und Strukturanalysen.
Status und Verfügbarkeit
Spezifikation und Referenzimplementierung sind Open Source auf GitHub verfügbar. Die Autoren sehen SCP als grundlegende Infrastruktur für skalierbare, multi‑institutionelle, agentengesteuerte Forschung. Ob die skizzierten Szenarien in der Praxis zuverlässig funktionieren, muss sich noch zeigen.
Quellen
- Quelle: Shanghai Artificial Intelligence Laboratory / Anthropic
- Der ursprüngliche Artikel wurde hier veröffentlicht
- Dieser Artikel wurde im Podcast KI-Briefing-Daily behandelt. Die Folge kannst du hier anhören.




