Anwendungen
RailMinds selbstorganisierende Architektur ermöglicht eine neue Klasse industrieller KI-Anwendungen — vollständig am Edge, ohne Cloud-Anbindung, Trainingsdaten oder GPU-Hardware.
Vorausschauende Wartung
Edge-native vorausschauende Wartung für rotierende Maschinen — ohne Cloud-Anbindung oder Nachtraining. RailMind organisiert sich durch bioinspirierten Wettbewerb selbst, um entstehende Fehler in Echtzeit zu erkennen — validiert an CWRU-Lagerdatensätzen mit AUC 0,985.
- Echtzeit-Fehlererkennung im Mikrosekundenbereich
- Keine gelabelten Trainingsdaten erforderlich
- 40,4 KB Modellgröße — läuft auf MCU-Hardware
- Kreuzvalidiert an industriellen Lagerdatensätzen
Domänenübergreifende Anomalieerkennung
Eine einheitliche Engine-Architektur, validiert an 10 Benchmark-Datensätzen aus 6 Signaldomänen — Vibration, Elektrochemie, Video, Satellit, Bewegung und Audio. Kein Nachtraining, keine domänenspezifische Anpassung.
- 10 Benchmark-Datensätze ohne Architekturänderungen validiert
- 6 Signaldomänen: Vibration, Elektrochemie, Video, Satellit, Bewegung, Audio
- Kein Feature Engineering oder Domänenexpertise nötig
- Kontinuierliche Anpassung an sich ändernde Bedingungen
LLM-Erweiterung
Große Sprachmodelle mit einem persistenten regime-bewussten Zustandssubstrat ausstatten. RailMind verfolgt kontinuierlich den Betriebskontext und injiziert strukturierte Zustandszusammenfassungen in das LLM — mit signifikant messbaren Verbesserungen in Relevanz und Antwortspezifität.
- Regime-bewusste Kontextinjektion in das LLM
- Zustandsabruf und -aktualisierung im Mikrosekundenbereich
- Signifikant messbare Verbesserung von Relevanz und Spezifität
- Integration mit führenden LLM-Frameworks
Video-QoE-Monitoring
Echtzeit-Qualitätsüberwachung in Streaming-Video-Dekodierungspipelines — Erkennung von Kodierungsanomalien, Bitratenabfall und Qualitätsverschiebungen direkt auf Edge-Geräten. Dieselbe selbstorganisierende Engine, die für industrielle Fehlererkennung validiert wurde, kommt ohne Architekturänderungen zum Einsatz.
- Validiert in Streaming-Video-Dekodierungspipeline — keine Cloud erforderlich
- Validierte AUC 0,959 über verschiedene Videoinhaltstypen
- Echtzeit-Erkennung von Kodierungsanomalien und Bitratenabfall
- Gleiche Engine, keine Architekturänderungen von Industrie zu Video
Satellitentelemetrie
Anomalieerkennung in Satellitentelemetrie-Datenströmen — übertrifft veröffentlichte Benchmarks auf dem ESA-ADB-SMAP-Datensatz. Kein dynamischer Speicher garantiert satellitengerechte Zuverlässigkeit mit deterministischer O(1)-pro-Sample-Ausführung.
- ESA-ADB-Benchmark: übertrifft veröffentlichte Referenz
- 37-facher unüberwachter Vorteil gegenüber Rohbaseline
- Kein dynamischer Speicher
- Keine Architekturänderungen vom Boden zum Weltraum
Strukturgesundheitsüberwachung
Kontinuierliche Integritätsüberwachung für Brücken und Bauwerke — validiert am Z24-Brücken-Datensatz. Dieselbe Engine, die Lagerfehler in Fabriken erkennt, überwacht Strukturanomalien in großer Infrastruktur ohne Architekturänderungen.
- Validiert am Z24-Brücken-Echtdatensatz
- Kontinuierliches On-Device-Monitoring — keine Cloud
- Keine Architekturänderungen von PdM zu SHM
- Erkennt Strukturregimewechsel und anomale Lastmuster
Robotik & Embodied AI
Mehrgelenkige Zustandsüberwachung und Anomalieerkennung für Industrie- und Kollaborationsroboter — validiert an CASPER UR3e 6-Achs-Roboterdaten (1,76 Mio. Sensorreihen). Hochdimensionale, korrelierte Mehrachssignale werden nativ verarbeitet.
- Validiert: CASPER UR3e 6-Achsen-Kollaborationsroboter (AUC 0,948)
- 1,76 Mio. reale Gelenksensozeilen verarbeitet
- Mehrachsige Signalverarbeitung ohne Feature Engineering
- Einsatzfähig auf Robotersteuerungs-Hardware — keine Cloud
Video & Streaming-Medien
Regime-bewusste Qualitätsüberwachung über die gesamte Video-Pipeline — von der Kodierung über Transkodierung bis zur Auslieferung. Erkennt Kodierungsanomalien, Bitratenverschiebungen und Auslieferungsprobleme in Echtzeit. Validiert mit AUC 0,959.
- Durchgängige Abdeckung: Kodierung → Transkodierung → Auslieferung
- Validierte AUC 0,959 bei diversen Streaming-Inhalten
- Echtzeit-Regimeerkennung im Mikrosekundenbereich
- Kein Nachtraining bei verschiedenen Codec-Profilen
Human Activity Recognition
Kontinuierliche Verhaltensregime-Erkennung von Wearables und eingebetteten Bewegungssensoren — validiert auf UCI HAR (6 Aktivitäten) und WISDM v2 (18 Aktivitäten, 160K Samples). Vollständig On-Device ohne gelabelte Trainingsdaten.
- Validiert: UCI HAR K=6 und WISDM v2 K=18 (160K reale Samples)
- Bis zu 18 simultane Aktivitätsregimes erkannt
- Keine gelabelten Trainingsdaten erforderlich
- Einsatzfähig auf Wearable- und Embedded-Hardware
Audio & Akustische Szenenanalyse
Akustische Regime-Erkennung für Umweltmonitoring, industrielle Audioanalyse und akustische Szeneklassifikation — validiert auf ESC-50 und DCASE. Die Engine unterscheidet akustische Umgebungen ohne audiospezifisches Feature Engineering.
- Validiert auf ESC-50 und DCASE Benchmark-Datensätzen
- Kein audiospezifisches Feature Engineering erforderlich
- Gleiche Engine-Architektur wie Industrie- und Video-Anwendungen
- Einsatzfähig auf Low-Power Edge-Mikrofonen und IoT-Geräten