
Machine learning en AI zijn ook in de industrie inmiddels bekende begrippen. Maar hoe werkt een project waarin deze technologie wordt toegepast nu precies in de praktijk? Het Duitse adviesbureau DataArt gaf hier onlangs een mooi voorbeeld van. In nog geen vier maanden wist men voor een klant een op AI gebaseerd voorspellend onderhoudssysteem te bouwen.
Het doel van het platform voor voorspellend onderhoud is om storingen en uitval van apparatuur te voorspellen. Het project bracht IoT en machine learning (ML) samen en integreerde zowel software- als hardware-componenten. Hierbij werd een serverloos ML-systeem met Scikit-learn op AWS toegepast.
Sensoren
De klant heeft een groot sorteercentrum in gebruik, met transportbanden, sensoren en robots. Men liep het risico stil te vallen door een mogelijk falen van een component. Zo'n uitval kan tot 1,5 miljoen dollar per uur kosten. Het project bleek al snel omvangrijk te zijn. Dmitry Baykov van DataArt: “Ons initiële prototype telde ongeveer 90 sensoren, maar opschalen vereiste bijna 550 sensoren voor slechts een klein deel van het sorteercentrum van de klant."
Het systeem voor het verzamelen van data bestond uit een gateway, een SPS (smart passive sensors) en een aantal andere sensoren. Om potentiële risico's van onderbrekingen van mobiel internet te minimaliseren, implementeerden men caching (tussenopslag van data) op de gateway. Men koos voor Athena als database-oplossing, omdat de toekomstige gebruikers van het systeem de voorkeur gaven aan de functies ervan boven die van een database als DynamoDb. Athena is volgens Baykov beter geschikt voor het opvragen van gegevens voor machine learning, analyses en het lezen/schrijven van Parquet- en CSV-gegevens.
Het analyseren
In de tweede fase analyseerde men drie gigabyte aan ruwe data, met de focus op temperatuur-, trillings- en axiale versnellingmetingen van de motoren. In slechts vier maanden bracht men de eerste softwareversie uit door de volgende tijd- en kostensparende methoden te gebruiken:
1. Gebruik van Amazon Web Services (AWS) om het systeem te hosten en automatisch te schalen bij een toenemend aantal gebruikers.
2. Beveiliging van gegevens met de standaard AWS-versleuteling.
3. Gebruik van een event-driven architectuur om realtime werking van het systeem mogelijk te maken.
4. Beheer van grote hoeveelheden gegevens door backup ‘pipelines’ te maken en later over te schakelen naar het opslaan van ruwe data in read only-modus om kosten te besparen.
5. Realiseren van een hoge detectienauwkeurigheid met een aangepast neuraal netwerkmodel op Keras en TensorFlow, na aanvankelijk gebruik van vooraf gemaakte containers op SageMaker.
6. Implementatie van continue integratie en levering, waardoor we het systeem konden uitbreiden met verschillende AWS-diensten en deze automatisch beheren tijdens de build- en leveringsfasen.
Projectdetails
"In de eerste maanden baseerden we ons werk op fundamentele wiskundige principes en statistische benaderingen voordat we neurale netwerken implementeerden. We hebben metrics gemeten zoals de gemiddelde temperatuur en implementeerden eenvoudige waarschuwingssystemen om anomalieën te detecteren”, zegt Baykov.
“We verzamelden, verwerkten en ‘reinigden’ de data, en hebben zo de creatie van een model voorbereid. We gebruikten S3-buckets van AWS om events te starten en ‘partities’ te maken om de kosten van Athena-query's te optimaliseren. We beschikten over een zogeheten ‘downsampler’ en Amazon EMR, wat snelle dataverzameling mogelijk maakt, terwijl onze data-analisten feature engineering uitvoerden met cloud-gebaseerde Jupyter Notebooks. SageMaker vereenvoudigde het proces door cluster- en modelbeheer te vereenvoudigen en de inzet van modellen en automatische schaalvergroting voor geavanceerdere algoritmen mogelijk te maken.
DataArt gebruikte SageMaker-trainingsopdrachten om het model te trainen met zes tot acht uur aan geaggregeerde telemetriegegevens. “AWS Sagemaker biedt een lijst van beschikbare algoritmen en afbeeldingen, zodat we begonnen met middelgrote instanties voor het trainen van eenvoudige modellen en later overgingen naar aangepaste instanties."
Na de training werd het model opgeslagen op AWS S3. We hadden slechts minimale softwarecode nodig om een SageMaker-endpoint in te stellen, dat door elke Lambda-functie of extern kon worden aangeroepen. Een gebeurtenis die het event triggerde, werd elke twee uur 'afgevuurd', zodat het team voor de volgende twee uur een nieuwe voorspelling van een mogelijke storing had.
Toekomstige ontwikkelingen
"Het analistenteam gebruikte Git om de Python-codebestanden met wijzigingen te pushen en de trainingsopdracht automatisch met een nieuwe codeversie te starten. Na de training werd het model automatisch ingezet op SageMaker Endpoint. Analisten ontvangen de voorspellingen van modellen door een S3-map met invoergegevens te selecteren en de parameters bij te werken via een grafische interface. Als er motoranomalieën worden gedetecteerd, waarschuwt het meldingssysteem de gebruikers op hun apparaten om de staat van de motor te controleren."
Bij een storing was het doel van de monteur om het onderdeel zo snel mogelijk te vervangen. De hoge papierlast leidde ons echter tot het invoeren van een contentmanagementsysteem voor de klant, wat een efficiëntere registratie van storingsgebeurtenissen mogelijk maakte en de interactie met de monteurs aanzienlijk verbeterde. Het systeem werd modulair en cloud-onafhankelijk ontworpen, zodat het in elke cloud-infrastructuur opnieuw kon worden opgebouwd. Voor verdere verbetering konden ultrasone sensoren op de motoren worden geïnstalleerd om het geluid te lezen en een spectrale analyse uit te voeren.
Dankzij de implementatie van het platform kon de klant de levensduur van de machines met maximaal 40 procent verlengen en de voorraad reserveonderdelen met maximaal 20 procent verminderen.