86.5 Evaluare RUL online

Evaluarea online a RUL a utilajelor implică de obicei că observațiile de performanță în timp real sunt disponibile de-a lungul timpului, iar RUL este estimat prin probabilitatea condiționată a observațiilor de performanță ale unității. Algoritmii de evaluare online sunt recursivi, depinzând doar de observațiile de stare anterioare. Modelul de mulțimi a stărilor (state-space) este utilizat pe scară largă cu algoritmi recursivi în aplicație.

Metode Support Vector Machine (SVM)

Support vector machine (SVM) este un algoritm de învățare automată propus în anii 1990 și bazat pe teoria învățării statistice a lui Vapnik. SVM nu se bazează pe principiul empiric tradițional de minimizare a riscului, ci pe teoria dimensiunilor VC (Vapnik-Chervonenkis) și pe principiul minimizării riscului structural în statistică. SVM poate rezolva problemele structurale ale modelului înalt-dimensional cu un număr limitat de mostre și are performanțe predictive bune. SVM inițial este aplicat în principal problemelor de recunoaștere a modelelor. Prin cercetarea și dezvoltarea pe termen scurt, SVM are, de asemenea, un rezultat bun în regresie (Steinwart și Christmann 2008).

Tehnicile SVM s-au dezvoltat foarte mult în ultimii ani, dând naștere unui nou tip de mașini de învățare care utilizează conceptul central al tehnicilor SVM pentru o serie de sarcini de învățare. Mașinile kernel oferă un cadru modular care poate fi adaptat la diferite sarcini și domenii folosind diferite funcții kernel și algoritmul de bază. Ele sunt utilizate într-o varietate de domenii, inclusiv biomedicină și bioinformatică (Furey și colab. 2000), analiza imaginilor și viziunea artificială (Guo și colab. 2001) și alte domenii de inginerie (Taboada și colab. 2007). SVM-urile au fost folosite de cercetători pentru a rezolva probleme de clasificare și regresie. În acest studiu de cercetare, SVM pentru regresie (SVR) este folosit ca instrument de învățare automatizat cu un accent diferit pentru a prezice cu succes SOC (state of charge = starea de încărcare) a unei celule de baterie cu fosfat de fier și litiu de mare capacitate în funcție de tensiunea celulei, curentul celulei și temperatura celulei. Modelul SVM este utilizat ca alternativă la abordările tradiționale de regresie. Ca estimator neliniar, SVM este mai robust decât un estimator cu cele mai mici pătrate, deoarece este insensibil la modificări mici.

Teoria Support Vector Regression (SVR)

Vapnik (1998) a introdus funcția de pierdere insensibilă în support vector machine, care poate rezolva problema regresiei neliniare. Regresia vectorului suport (SVR = Support Vector Regression) este împărțită în regresie liniară și regresie neliniară. În cele mai multe cazuri, eșantionul prezintă o relație neliniară. Pentru cazul neliniar, ideea de bază a mașinii de regresie vectorială suport este că punctele eșantionului sunt mapate la spațiu de caracteristici înalt-dimensional printr-o mapare neliniară Φ: Rn H, iar regresia liniară este aplicată în spațiul caracteristic înalt-dimensional pentru a obține estimarea regresiei neliniare în spațiul original (Hong și colab. 2005).

Fig. 5 Regresia vectorului suport

Pentru regresia neliniară prezentată în Fig. 5, funcția de estimare este

y = f (x) = ω, Φ(x) + b (1)

unde ω este vectorul de greutate și Φ este polarizarea, <.,.> este operația produsului scalar.

Coeficienții necunoscuți ω și b sunt estimați printr-o minimizare a următoarei funcții:

(2)

În funcția obiectivă de mai sus, primul termen este elementul de regularizare, al doilea termen este riscul empiric, iar C este un număr pozitiv care determină echilibrul dintre riscul empiric și părțile de regularizare.

Riscul empiric este măsurat prin funcția de pierdere insensibilă la Ɛ a lui Vapnik, care este prezentată în Fig. 6, definită ca (Xu et al. 2005):


Fig. 6 Funcția de pierdere insensibilă la Ɛ

(3)

unde Ɛ este parametrul de lățime al intervalului diferențial (bandă moartă) în funcția de pierdere insensibilă a lui Vapnik.

În Ec. 4, sunt introduse variabilele slack ξi și ξi*, iar problema de minimizare de mai sus poate fi convertită în următoarea problemă, și anume:

(4)

Problema de optimizare constrânsă de mai sus este o problemă tipică de programare pătratică și poate fi rezolvată prin metoda multiplicatorului Lagrange. Se introduc atunci multiplicatorul Lagrange αi* și ηi*

(5)

Funcția L este minimizată pentru ω, b, ξi(*), atunci condițiile extreme ale funcției L sunt

Conform teoriei duale Wolf, problema inițială este transformată în problema sa duală, și anume,

(6)

Rezolvând problema duală, să presupunem că soluția este α*= (α1*, α2*, . . ., αl*), α = (α1, α2, . . ., αl) atunci,

Conform condițiilor Karush-Kuhn-Tucker (KKT) (Fletcher 1987) ale programării pătratice, αiαi* = 0, adică ale αi și αi*, cel puțin una dintre ele este zero. Doar câteva nu sunt zero, iar punctele lor de eșantion corespunzătoare sunt vectorul suport. Funcția de estimare a regresiei este decisă de vectorul de regresie și nu are nimic de-a face cu vectorul suport. Este introdusă definiția funcției kernel a produsului intern, iar funcția de estimare a regresiei vectorului suport poate fi scrisă ca

(7)

Model SVM și prognoză

În regresia vectorului suport, alegerea funcției kernel și a altor parametri determină rezultatele regresiei modelului și capacitatea de generalizare. Există mai mulți parametri în algoritmul de soluție al SVR și trebuie să fie determinați. Unul este tipul funcției kernel și parametrii acesteia, celălalt este factorul de penalizare C și altul este parametrul funcției insensibile Ɛ.

Funcțiile kernel au un impact foarte important asupra procesului de soluție al SVM. Modelul SVM este caracterizat de setul de instruire. Funcția kernel și diferitele forme de funcții kernel pot genera diferite modele de regresie SVM, iar funcțiile kernel utilizate în mod obișnuit sunt kernel liniar, funcția kernel polinomială, funcția kernel gaussiană radială și așa mai departe. Factorul de penalitate C este utilizat pentru a echilibra complexitatea modelului și valorile de risc empirice, ceea ce face ca performanța sa de generalizare să fie cea mai bună. C optim în diferite subspații de date este diferit. Pentru a controla complexitatea modelului, valoarea lui C ar trebui să fie în general mică, dar valoarea nu poate fi prea mică pentru a evita o eroare mare de experiență a modelului. Ɛ determină eroarea minimă admisă de ajustare a mașinii de învățare. e poate controla eroarea de aproximare a regresiei, astfel încât să controleze numărul de vectori suport și capacitatea de generalizare a modelului.

Deoarece parametrii de mai sus determină, de asemenea, acuratețea prognozei a modelului de regresie vector suport, trebuie selectați parametrii cei mai adecvați pentru a obține cele mai bune rezultate de predicție. Este o problemă de optimizare, iar metode precum metoda de validare încrucișată, algoritmul de căutare în grilă, algoritmul roiului de particule și algoritmul genetic pot fi utilizate pentru a căuta valoarea optimă (Chapelle 2002).

Prognoza este prezicerea viitorului pe baza stării trecute și prezente. Cu alte cuvinte, este de a face predicții științifice și deducere rezonabilă a direcției viitoarei tendințe de dezvoltare și a posibilei stări viitoare (Xu et al. 2007). Pentru o serie temporală dată {xi}, i = 1, 2, . . ., N. Luați primele r date (r < N) ca probe de instruire, iar restul setului de date ca probe de testare. Pentru a face o utilizare mai eficientă a datelor, spațiul de fază al seriei de timp unidimensionale este reconstruit, iar seria este transformată într-o formă de matrice. Seria temporală unidimensională {xi} poate fi transformată în următoarea formă de matrice:

(8)

unde Xi = Xim = (xi, xi+1, . . ., xi+m-1) și m este dimensiunea de încorporare a prognozei. Figura 7 (Xu et al. 2007) este actualizarea instruirii supravegheată de mașină cu vector suport – (X, Y) este perechea de instruire pentru intrarea și ieșirea mașinii.

Fig. 7 Conceptul de proces de instruire supravegheat de support vector machine

Atunci funcția de regresie a prognozei este

(9)

În Ec. 9, t = m + 1, m + 2, . . ., r; K(·,·) este funcția kernel. Multiplicatorul Lagrange αi(*) și offset-ul b pot fi obținute din următoarele două probleme de programare pătratică:

(10)

Prognoza cu un pas înainte este prognoza lui xr+1, r+1, vector de intrare dat Xr-m+l. Vectorul de date utilizat pentru prognoza momentului următor este valoarea reală observată cu momentul m până la momentul curent t, mai degrabă decât datele de prognoză, în timp ce punctele de date de prognoză vor fi utilizate ca moment de intrare pentru prognoza cu mai mulți pași înainte. Conform Ec. 9 și Xr-m+1 = (xr-m+1, xr-m+2, . . ., xr), prognoza cu l-pas înainte este

(11)

Pe lângă punctele necunoscute prognozate, este important să poți da un interval de încredere sub un anumit nivel de încredere. Aici este estimarea intervalului de prognoză bazată pe distribuția-t (Chen și Zhou 2008).

Pentru orice valoare reală x și valoarea de prognoză , relația dintre ele este x = + e, iar e este eroarea. Presupunem eroarea globală e ~ N(0, σ2), setul de eroare de prognoză poate fi obținut din setul de instruire E = {e1, . . ., en}, unde E este un eșantion a lui e. Luați en+1 = xn+1 - n+1 ca eroare de prognoză a unui singur punct, care este din eroarea generală și este independentă de elementele din E, atunci

(12)

unde

Având în vedere că α este probabilitatea erorii de tip I, prin rezolvarea P(|η| λ) = 1 - α, deci |η| tα/2(n-1), și atunci

(13)

În plus en+1 = xn+1 - n+1, atunci intervalul de prognoză al lui xn+1 este

(14)

Studiu de caz

Se realizează un studiu de caz pentru evaluarea RUL a sculei de frezat. Testul este efectuat în mașina de frezat verticală OKUMA cu trei axe la Molding Tool Graduate School of Dalian University of Technology, prezentată în (Fig. 8). Scula de testat este un cow nose cutter 7792VXD, iar diametrul, lungimea în sus și numărul de lame sunt de 32 mm, 200 mm și, respectiv, 3. Viteza axului, adâncimea de tăiere și viteza de avans sunt de 400 mm/min, 0,4 mm și, respectiv, 1.000 rpm. Semnalul de emisie acustică și semnalul de forță sunt măsurate în același timp. Semnalul de emisie acustică (AE) este colectat la fiecare 10 s. Frecvența de eșantionare este de 2.048 kHz, iar lungimea de eșantionare este de 512.000 de impulsuri.

Fig. 8 Mașină de frezat verticală OKUMA cu trei axe pentru test

Atât amplitudinea, cât și distribuția semnalelor de emisie acustică se modifică odată cu starea sculelor de la proaspăt la uzat. Unele caracteristici ale semnalului sunt vizibile și strâns legate de uzură, dar altele nu sunt. Semnalele de emisie acustică sunt descompuse în 64 de benzi prin transformarea pachetului wavelet (WP = wavelet packet), iar energia WP a timpului diferit de eșantionare este calculată și normalizată, așa cum este prezentat în Fig. 9. Se poate observa clar că energia semnalului se concentrează în principal pe banda de joasă frecvență și energia maximă se concentrează pe Banda 2. Energia WP a lui Band 2 este utilizată pentru a estima uzura sculei și modificarea acesteia este prezentată în Fig. 10 cu o tendință de creștere nemonotonică. Această tendință poate fi cauzată de creșterea uzurii sculei, care are ca rezultat creșterea suprafeței de contact dintre unealtă și piesa de prelucrat.

Fig. 9 Spectrele de energie WP la momente diferite

Fig. 10 Modificarea energiei WP normalizată a benzii 2

Calibrarea și munca ulterioară de prognoză a SVR în acest studiu au fost efectuate prin recurgerea la pachetul software LIBSVM. Software-ul LIBSVM este gratuit, iar codurile sursă, scrise în C++, sunt deschise publicului. Acest studiu a modificat codurile pentru evaluarea uzării acestei scule. Metoda de căutare în grilă cu o tehnică de validare încrucișată (Hsu et al. 2003) a fost utilizată pentru a deduce parametrii modelului SVR, inclusiv parametrul de penalitate C și parametrul kernel γ. Toleranța de eroare Ɛ este setată la 0,01. Intervalul de căutare este 2-8 ~ 28 și pasul de căutare este setat la 1.0. A fost utilizată o validare încrucișată triplă, iar parametrii au fost obținuți prin eroarea pătrată medie minimă (RMSE = root-mean-square error) în ceea ce privește fiecare validare încrucișată. Parametrii modelului (C, γ) = (27,86, 0,06) au fost atunci determinați prin mediarea celor trei seturi de parametri derivate prin validare încrucișată, iar RMSE a fost 0,03 prin simularea evenimentelor de calibrare. Rezultatul estimării parametrilor SVR este prezentat în Fig. 11 și 12.


Fig. 11 Rezultatul estimării parametrilor SVR


Fig. 12 Rezultatul estimării parametrilor SVR (3D)

Figura 13 prezintă rezultatul prognozării cu 1 pas înainte după t = 165. La momentul t, mai multe realizări ale lui t, și anume, t(j) (j = 1,. . ., r), pot fi obținute din reziduuri SVR. Un eșantion de r realizări ale erorii de prognoză ej poate fi obținut și utilizat pentru a „adresa” valoarea de prognoză deterministă obținută din modelul SVR instruit. Rezultatul este o distribuție a r prognoze t(j), a cărei medie este predicția deterministă t. Distribuția empirică a lui t(j) reprezintă prognoza probabilistică. Distribuția de probabilitate aferentă fiecărei variabile t poate fi construită folosind o formulă de reprezentare a poziției (Vogel 1986). Această lucrare a aplicat relațiile de poziție grafică Hazen pentru a descrie distribuția energiei WP a lui t. Un prag pentru energia normalizată este stabilit la 0,4. Când valoarea normalizată a energiei depășește pragul, unealta este considerată defectă. Rezultatele estimării fiabilității la t = 165, t = 185 și t = 200 sunt prezentate în Fig. 14a–c, respectiv. Figura 15 este intervalul de încredere al prognozei bazat pe distribuția-t (α = 0,05), și se poate observa că fiabilitatea se reduce treptat odată cu creșterea treptei de prognoză.

(15)

(a) t = 165
(b) t = 185
(c) t = 200


Fig. 13 Rezultatul prognozei cu 1 pas înainte în modelul SVM la t = 165


Fig. 14 Distribuția probabilității predictive


Fig. 15 Prognoza intervalelor de încredere bazate pe distribuția-t