RailMind RailMind

Anwendungen

RailMinds selbstorganisierende Architektur ermöglicht eine neue Klasse industrieller KI-Anwendungen — vollständig am Edge, ohne Cloud-Anbindung, Trainingsdaten oder GPU-Hardware.

Vorausschauende Wartung

Edge-native vorausschauende Wartung für rotierende Maschinen — ohne Cloud-Anbindung oder Nachtraining. RailMind organisiert sich durch bioinspirierten Wettbewerb selbst, um entstehende Fehler in Echtzeit zu erkennen — validiert an CWRU-Lagerdatensätzen mit AUC 0,985.

  • Echtzeit-Fehlererkennung im Mikrosekundenbereich
  • Keine gelabelten Trainingsdaten erforderlich
  • 40,4 KB Modellgröße — läuft auf MCU-Hardware
  • Kreuzvalidiert an industriellen Lagerdatensätzen

Domänenübergreifende Anomalieerkennung

Eine einheitliche Engine-Architektur, validiert an 10 Benchmark-Datensätzen aus 6 Signaldomänen — Vibration, Elektrochemie, Video, Satellit, Bewegung und Audio. Kein Nachtraining, keine domänenspezifische Anpassung.

  • 10 Benchmark-Datensätze ohne Architekturänderungen validiert
  • 6 Signaldomänen: Vibration, Elektrochemie, Video, Satellit, Bewegung, Audio
  • Kein Feature Engineering oder Domänenexpertise nötig
  • Kontinuierliche Anpassung an sich ändernde Bedingungen

LLM-Erweiterung

Große Sprachmodelle mit einem persistenten regime-bewussten Zustandssubstrat ausstatten. RailMind verfolgt kontinuierlich den Betriebskontext und injiziert strukturierte Zustandszusammenfassungen in das LLM — mit signifikant messbaren Verbesserungen in Relevanz und Antwortspezifität.

  • Regime-bewusste Kontextinjektion in das LLM
  • Zustandsabruf und -aktualisierung im Mikrosekundenbereich
  • Signifikant messbare Verbesserung von Relevanz und Spezifität
  • Integration mit führenden LLM-Frameworks

Video-QoE-Monitoring

Echtzeit-Qualitätsüberwachung in Streaming-Video-Dekodierungspipelines — Erkennung von Kodierungsanomalien, Bitratenabfall und Qualitätsverschiebungen direkt auf Edge-Geräten. Dieselbe selbstorganisierende Engine, die für industrielle Fehlererkennung validiert wurde, kommt ohne Architekturänderungen zum Einsatz.

  • Validiert in Streaming-Video-Dekodierungspipeline — keine Cloud erforderlich
  • Validierte AUC 0,959 über verschiedene Videoinhaltstypen
  • Echtzeit-Erkennung von Kodierungsanomalien und Bitratenabfall
  • Gleiche Engine, keine Architekturänderungen von Industrie zu Video

Satellitentelemetrie

Anomalieerkennung in Satellitentelemetrie-Datenströmen — übertrifft veröffentlichte Benchmarks auf dem ESA-ADB-SMAP-Datensatz. Kein dynamischer Speicher garantiert satellitengerechte Zuverlässigkeit mit deterministischer O(1)-pro-Sample-Ausführung.

  • ESA-ADB-Benchmark: übertrifft veröffentlichte Referenz
  • 37-facher unüberwachter Vorteil gegenüber Rohbaseline
  • Kein dynamischer Speicher
  • Keine Architekturänderungen vom Boden zum Weltraum

Strukturgesundheitsüberwachung

Kontinuierliche Integritätsüberwachung für Brücken und Bauwerke — validiert am Z24-Brücken-Datensatz. Dieselbe Engine, die Lagerfehler in Fabriken erkennt, überwacht Strukturanomalien in großer Infrastruktur ohne Architekturänderungen.

  • Validiert am Z24-Brücken-Echtdatensatz
  • Kontinuierliches On-Device-Monitoring — keine Cloud
  • Keine Architekturänderungen von PdM zu SHM
  • Erkennt Strukturregimewechsel und anomale Lastmuster

Robotik & Embodied AI

Mehrgelenkige Zustandsüberwachung und Anomalieerkennung für Industrie- und Kollaborationsroboter — validiert an CASPER UR3e 6-Achs-Roboterdaten (1,76 Mio. Sensorreihen). Hochdimensionale, korrelierte Mehrachssignale werden nativ verarbeitet.

  • Validiert: CASPER UR3e 6-Achsen-Kollaborationsroboter (AUC 0,948)
  • 1,76 Mio. reale Gelenksensozeilen verarbeitet
  • Mehrachsige Signalverarbeitung ohne Feature Engineering
  • Einsatzfähig auf Robotersteuerungs-Hardware — keine Cloud

Video & Streaming-Medien

Regime-bewusste Qualitätsüberwachung über die gesamte Video-Pipeline — von der Kodierung über Transkodierung bis zur Auslieferung. Erkennt Kodierungsanomalien, Bitratenverschiebungen und Auslieferungsprobleme in Echtzeit. Validiert mit AUC 0,959.

  • Durchgängige Abdeckung: Kodierung → Transkodierung → Auslieferung
  • Validierte AUC 0,959 bei diversen Streaming-Inhalten
  • Echtzeit-Regimeerkennung im Mikrosekundenbereich
  • Kein Nachtraining bei verschiedenen Codec-Profilen

Human Activity Recognition

Kontinuierliche Verhaltensregime-Erkennung von Wearables und eingebetteten Bewegungssensoren — validiert auf UCI HAR (6 Aktivitäten) und WISDM v2 (18 Aktivitäten, 160K Samples). Vollständig On-Device ohne gelabelte Trainingsdaten.

  • Validiert: UCI HAR K=6 und WISDM v2 K=18 (160K reale Samples)
  • Bis zu 18 simultane Aktivitätsregimes erkannt
  • Keine gelabelten Trainingsdaten erforderlich
  • Einsatzfähig auf Wearable- und Embedded-Hardware

Audio & Akustische Szenenanalyse

Akustische Regime-Erkennung für Umweltmonitoring, industrielle Audioanalyse und akustische Szeneklassifikation — validiert auf ESC-50 und DCASE. Die Engine unterscheidet akustische Umgebungen ohne audiospezifisches Feature Engineering.

  • Validiert auf ESC-50 und DCASE Benchmark-Datensätzen
  • Kein audiospezifisches Feature Engineering erforderlich
  • Gleiche Engine-Architektur wie Industrie- und Video-Anwendungen
  • Einsatzfähig auf Low-Power Edge-Mikrofonen und IoT-Geräten