Anonim

Forudsigelig vedligeholdelse, kaldet Ny forudsigelsesvedligeholdelse, drives af data og en høj grad af automatisering. I det væsentlige handler det om løbende at overvåge maskinernes tilstand og på baggrund heraf optimere drift og vedligeholdelsesintensitet. For at dette skal lykkes, skal de indsamlede måledata fortolkes automatisk.

Glaskugel ade: Machine-Learning-Algorithmen ermöglichen genauere Vorhersagen. Wir sagen Ihnen, was Sie dabei in der Praxis beachten sollten.
Farvel til glas: Maskinlæringsalgoritmer tillader mere nøjagtige forudsigelser. Vi fortæller dig, hvad du skal være opmærksom på i praksis.
Foto: Andrey_Popov - shutterstock.com

Af afgørende betydning for dette er maskinlæringsalgoritmer. Disse matematiske metoder kan bruges til at udlede funktionelle forhold fra data. Målet er at finde de forbindelser, der bedst opfylder de respektive krav og hjælpe med at nå de ønskede mål: en tilstandsdiagnose af det overvågede system og en pålidelig forudsigelse af dens brugbare resterende levetid, prognosen for Resterende brugbar liv (RUL),

Disse algoritmer gør modellerne tilpasningsdygtige. Dermed automatiserer de ikke kun forudsigelig vedligeholdelse, de sikrer også et tilstrækkeligt svar på ændringer i maskinernes opførsel, men også under rammebetingelserne. På denne måde skaber du forudsætningen for optimal tilpasning af vedligeholdelsesprocesser, intervaller og reservedele til de aktuelle forhold. Og de hjælper med at registrere afvigelser, før den respektive maskine tager større skade, eller for eksempel er en flyturbin ikke længere fuldt funktionsdygtig.

spoods.de

Følgende er en trinvis introduktion af, hvad virksomheder skal gøre, hvis de vil implementere et forudsigeligt vedligeholdelsesprojekt ved hjælp af maskinlæring. Det første krav til et forudsigeligt vedligeholdelsesprojekt er udstyret af maskinerne med sensorer og deres netværk. Ideelt set er denne betingelse opfyldt længe før projektet starter, fordi jo flere tilgængelige data - selv fra fortiden - desto mere nøjagtige er resultaterne.

Predictive-Maintenance-Start: at få et overblik

Det første trin i udviklingen af ​​passende algoritmer er dataregistreringen. Kun hvis projektgruppen ved, hvilke maskindata der faktisk er tilgængelige, kan det tackle de næste trin på en målrettet måde. Relevante data kan for eksempel være:

  • Status / måledata for maskinen (ofte tidsserier, såsom temperaturen på tidspunktet X, Y, Z);

  • ustrukturerede data (f.eks. billeder eller lydsignaler);

  • statiske egenskaber (såsom firmwareversion, fabrikationsdato eller placering af maskinen).

Relevant for anvendeligheden af ​​dataene er, hvordan de indsamles, og hvor komplette de er: Er visse data kun begivenhedsudløst, eller er de tilgængelige i konstante serier - og i bekræftende fald, på hvilken frekvens indsamles de? Er måleserien fuldt ud dokumenteret?

Generelt er dataforberedelse afgørende for, om et projekt kan lykkes. Ofte undervurderer virksomheder hvor meget tid de bruger på rengøring af poster, sletning af forkerte værdier, udfyldning af manglende værdier og hvordan og under hvilke omstændigheder dataene blev målt.

Brug servicedata til maskinlæring

Særlig opmærksomhed bør rettes mod eksisterende service- og reparationsdata, de er en ægte skattekiste og grundlaget for en RUL-prognose. Vigtige oplysninger er f.eks. Hvad var ødelagt, og hvad blev repareret? Frem for alt skal projektteamet kontrollere, om servicedataene kan matches med statusdataene. Fordi baseret på reparationshistorikken, kan betingelserne justeres før og efter reparationen. På dette grundlag kan systemet lære, hvad "brudt" betyder i individuelle tilfælde overhovedet.

udstilling

Hvad der venter os i 2030

Was uns 2030 erwartet - Foto: Dell

Innovative teknologier fører til forstyrrende ændringer. Denne undersøgelse afslører, hvad ledere af verdens førende virksomheder forventer af den digitale fremtid.

Download undersøgelsen

Hvis servicedata er tilgængelige, følger deres prioritering først: Hvilke maskintyper er hyppigt defekte? Hvilke komponenter er det mest sandsynligt, at de mislykkes, eller de dyreste at reparere? Virksomheden skal derefter finde ud af, hvilke målte værdier - for eksempel fysiske målte variabler - der kan være relevante for fejl i en komponent eller en maskine. Dette er forudsætningen for at gennemgå og evaluere de tilgængelige modelleringsdata: hvad kan være relevant, hvad måles i første omgang? På dette tidspunkt giver det mening at konsultere eksperter, der kender maskinerne.

Hvis oversigten over de eksisterende data og deres grundlæggende relevans er på plads, bør projektgruppen afklare hvilke spørgsmål, der kan besvares i forbindelse med de tilsigtede projektmål. Især de økonomiske perspektiver er vigtige. De mest interessante er applikationer, hvor en masse penge står på spil: især dyre maskiner eller dem, der svigtes ofte eller medfører særlig høje omkostninger på grund af sammenbrud. Disse sager bør prioriteres højest.

I det mindste nu bliver det klart: Et sådant projekt er komplekst, og mange mennesker med forskellige perspektiver og kompetencer er involveret. Derfor anbefales det, at virksomheder tidligt involverer en dataforsker. Han er kommunikatoren, der holder strengene i hænderne, taler med dataindsamlere, udviklere, serviceteknikere og andre eksperter, forbereder deres information og integrerer dem i projektet.

Udvikling af maskinundervisning "intelligens"

Men hvordan opretter du teknisk den "intelligente" algoritme? Først og fremmest: frygt for kontakt er ikke passende. Der er nu en række gode værktøjer, der er målrettet mod forskellige målgrupper:

  • Allerede indbyggede algoritmer eller forudbyggede tjenester som IoT-producenter som Azure Cognitive Services eller Amazon AWS AI Services giver et godt fundament for at komme hurtigt i gang. Disse værktøjer er imidlertid en "sort kasse" og kan kun tilpasses i relativt lille udstrækning.

  • Offentligt tilgængelige AI-programmeringsbiblioteker eller algoritmesæt er ideelle til hurtig modeludvikling og er ofte afhængige af det tolkede Python-sprog. For eksempel er der Keras-biblioteket til neurale netværk eller scikit-learning til "klassiske" maskinindlæringsmodeller. De bruger foruddefinerede beregningsmetoder, men tilbyder allerede flere interventionsmuligheder.

  • For eksempel går open source-biblioteker som PyTorch og TensorFlow et niveau dybere. De understøtter den komplette interne udvikling af algoritmer og har også en Python-forbindelse.