Algoritmo LMS con factor de pérdidas

(Leaky LMS)



    Cuando el proceso de entrada al filtro adaptativo tiene una matriz de autocorrelación con algún autovalor nulo, el LMS tiene uno o varios modos que no decaen a cero con el tiempo. Puesto que estos modos pueden hacer que el sistema se vuelva inestable, es necesario estabilizar el LMS forzando estos modos a cero. Una manera de conseguirlo es introduciendo un factor de pérdidas (leakage) g en el algoritmo:

donde  0 < g << 1.  Este coeficiente de pérdidas fuerza a los coeficientes del filtro a cero si el error o la entrada se anulan, y también consigue que los modos no convergentes decaigan a cero.

    Observemos el comportamiento del vector de pesos w(n). Para ello, expresamos la ecuación de actualización de los pesos y desarrollamos el error e(n) :

w(n+1) = [ I - m{ x(n)xH(n) +g I }] w(n) + m d*(n) x(n)

    Tomando el valor esperado y bajo la suposición de independencia:

E [w(n+1)] = [ I - m{ R +g I }] E [w(n) + m p

    Si comparamos estas expresiones con las del algoritmo LMS, obtenemos que la matriz de autocorrelación R  ha sido sustituida por  R +gI . El efecto del término de pérdidas ha sido introducir un ruido blanco de potencia g, pues la diagonal principal de la matriz de autocorrelación R  ha sido incrementada en este factor. Por tanto, la convergencia la determinan ahora los autovalores de la nueva matriz  R'  =  R +g I , lk + g, y puesto que lk>= 0, ahora todos los modos de este algoritmo convergen y tienden a cero al crecer el tiempo.

    Ahora, la condición del parámetro m para que se exista convergencia en media es

    Y, para ser más exactos, y asegurar la convergencia en varianza,

    Esta cota puede expresarse, de manera más restrictiva, utilizando la traza de la nueva matriz R'

    La parte negativa de este algoritmo es que la solución en estado estacionario es sesgada. En efecto, el valor del vector de pesos cuando se alcanza la convergencia es

    (El compromiso en este caso es robustez frente a sesgo o precisión)


    El algoritmo Leaky LMS puede obtenerse si consideramos la siguiente función de coste

x(n) = |e(n)|2 + g ||w(n)||2

    El gradiente de x(n) es

Ñz(n) = -2 x(n) e*(n) + 2 g w(n)

    Y si sustituimos en la expresión

w(n+1) =  w(n) - (1/2) mÑx(n)

llegamos a la ecuación recursiva de actualización de los pesos

w(n+1) =  w(n) - mg w(n) +  m x(n) e*(n)


    Componente Leaky LMS 

Ir a filtrado adaptativo