separación ciega de fuentes al aplicación de técnicas de ...fran/cursos/bss/bss_ica.pdf · 4...

Post on 27-Oct-2019

0 Views

Category:

Documents

0 Downloads

Preview:

Click to see full reader

TRANSCRIPT

1

Uni

vers

idad

Car

los

III

1

Aplicación de Técnicas de Separación Ciega de Fuentes al

Procesado de Señal

Francisco Javier González Serrano

Uni

vers

idad

Car

los

III

2

IndiceParte I: IntroducciónParte II:Contrastes− Máxima entropía, máxima verosimilitud− Aproximaciones senoidales

Parte III: Algoritmos adaptativos− Gradiente relativo− Gradiente natural

Parte IV: Aplicaciones− EEG-ERP− MUD en CDMA − Sellado de imágenes

2

Uni

vers

idad

Car

los

III

3

IntroducciónExisten aplicaciones de ICA/BSS en:− Bioingeniería:

• ECG, EEG.− Técnicas de procesado de señal (voz, imagen,...):

• codificación, compresión, indexado, clasificación.− Comunicaciones:

• receptores CDMA, conformado de haz.− Finanzas.

Que se beneficiarían de algoritmos que − presenten mejores prestaciones − con una carga computacional menor − y que puedan hacer frente a problemas tales como la

presencia de ruido

Uni

vers

idad

Car

los

III

4

Parte I

Introducción

3

Uni

vers

idad

Car

los

III

5

Mezcla instantánea y Separación

Uni

vers

idad

Car

los

III

6

Mezcla instantánea y Separación

A B

L x N N x 1

γt

N x 1 N x L

ruido

N-fuentes

N-fuentes recuperadas o componentes independientes

Separación y=Bx=BAs+Bγ

Mezcla x=As+γ

L-sensores

N ≤ L

1R ×∈ Ltx1R ×∈ N

ts 1R ×∈ Nty

4

Uni

vers

idad

Car

los

III

7

Separación de fuentesMezcla instantánea de 2 fuentes independientes s1 y s2

s1

s2x1

x2

y1

y2z2z1

x=As

p1(s1) p2(s2)

y=Bx

z=Wx1º) Blanqueado

y=Uz2º) Rotación

Vista superior de fdp conjunta

Aproximación al problema:

s1

s2

Vista superior de fdp conjunta

p (s1, s2)

( )TE =zz I

Uni

vers

idad

Car

los

III

8

Separación ciega de fuentesSi desconocemos la matriz de mezcla, ¿cómo llegamos a la separación?

Blanquear (PCA, ortogonalidad): matriz W

Rotar: matriz U

Vista superior de fdp conjunta de distintas mezclas de dos variables con fdp uniformes

Mezcla

5

Uni

vers

idad

Car

los

III

9

AmbigüedadesAmbigüedades en ICA− Escalado de fuentes:

• ICA no recupera la varianza original

− Permutación de fuentes

Blanquear (PCA, ortogonalidad)

Rotar

Uni

vers

idad

Car

los

III

10

Independencia estadísticaConcepto de independencia− Intuitivo

• Las variables y1 e y2 son independientes si el valor de y1 no

aporta ninguna información acerca del valor de y2.

− Matemático: funciones de densidad de probabilidad (pdf)• Sea p(y1,y2) la función de densidad de probabilidad conjunta de

y1 e y2.

• Sea p1(y1) la pdf marginal de y1

• y de forma similar para y2• Entonces, y1 e y2 son independientes si y sólo si:

1 1 1 2 2( ) ( , )p y p y y d y= ∫

1 2 1 1 2 2( , ) ( ) ( ). p y y p y p y=

6

Uni

vers

idad

Car

los

III

11

Independencia estadísticaConcepto de independencia− Matemático: Si y1 e y2 son independientes

• Incorrelación: h(·), g(·) son la identidad

Incorrelación ⇐ Independencia

( ) ( ) ( )1 2 1 2( ), ( ) ( ) ( ) . E g y h y E g y E h y= ×

( ) ( ) ( )1 2 1 2, 0E y y E y E y− × =

Uni

vers

idad

Car

los

III

12

Parte II

Funciones contraste

7

Uni

vers

idad

Car

los

III

13

Medida de la independencia¿Cómo medir estadísticamente la independencia?− Divergencia de Kullback-Leibler

− Para un vector de variables aleatorias

• Si p(·) es “factorizable”, la divergencia se anula

• La divergencia se denomina información

mutua de las variables

− Información mutua y entropía

[ ] ( )| ( ) log( )

fK f g f dg

= ∫yy yy

R∈ Ny

[ ]1 21 1

( )| ( ) log( ) ( )N

N N

pK p p p p p dp y p y

= ∫yy y

[ ]1 2| NK p p p p

1( ), , ( )Ny t y t…

[ ] [ ] [ ]111 1

( ), , ( ) log( ) ( )

N

N iiN N

pI y y p d H y Hp y p y =

= = −∑∫yy y y

Uni

vers

idad

Car

los

III

14

Funciones contrasteFunciones contraste− Son funciones reales de la distribución de probabilidad.− Los contrastes se deben diseñar para que su mínimo

coincida con una solución del problema ICA/BSS.

• La igualdad se produce cuando sea una copia de es una matriz de permutaciones y escalados

− El cálculo del gradiente de un contraste permite implementaciones adaptativas de algoritmos BSS

− Contraste ortogonal• Los datos están blanqueados (decorrelados)

[ ] [ ], siendo un vector de comp. independientesφ φ≥Cy y y

=y Bx sC

[ ]oφ y( )TE =zz I

8

Uni

vers

idad

Car

los

III

15

Funciones contrasteContraste basado en la información mutua (o de máxima entropía)

− Si consideramos la condición de blanqueado

• Hay que tener en cuenta que la entropía de y, H[y], es invariante a rotaciones.

− Algoritmo de separación

donde es un vector de componentes independientesy

[ ] [ ]|ME Kφ =y y y

[ ] [ ] [ ] [ ]cte.

1 1

N NoME i i

i iH y H H yφ

= =

= − =∑ ∑y y

[ ]min MEφB

Bx

[ ] [ ] log detH H= +Bx x B

Uni

vers

idad

Car

los

III

16

Funciones contrasteContraste basado en máxima verosimilitud

− Relación con otros contrastes

• porque

− Interpretación• El contraste de máxima verosimilitud maximiza la

independencia de las componentes de la salida y minimiza la “distancia” a la fdp de los datos.

-1donde se supone conocida la fdp de =s A x

[ ] [ ]1 1

( )| ( ) log( ) ( )ML

N N

pK p dq s q s

φ = = ∫yy y s y y

[ ] [ ] [ ]|ML ME Kφ φ= +y y y s

[ ] [ ] [ ]| | |K K K= +y s y y y s

9

Uni

vers

idad

Car

los

III

17

Funciones contrasteContraste Infomax− El desconocimiento de la fdp real de las fuentes ( qi(si) )

se suple suponiendo que éstas tienen una fdp fija ( r(·) ).

-1donde NO se supone conocida la fdp real de =s A x

[ ] [ ]1

( )| ( ) log( ) ( )InfoMax

N

pK p dr s r s

φ = = ∫yy y s y y

Uni

vers

idad

Car

los

III

18

Aproximaciones de contrastesAproximaciones de orden superior− Están basados en los Cumulantes de orden 4

− Relación con otros estadísticos

− Para señales independientes

[ ]Cum Cum[ , , , ]

[ ] [ ] [ ]

[ ] [ ] [ ] [ ]

ijkl i j k l

i j k l i j k l

i l j k i k j l

y y y y

E y y y y E y y E y y

E y y E y y E y y E y y

=

= −

− −

y

[ ] 4 2 2kurt[ ]=Cum [ ] 3 [ ]iiii i iE y E y= −y y[ ]2 2

i =Cum [ ]ii iE yσ =y

[ ]Cum =kurt[ ]ijkl ijklδs s

10

Uni

vers

idad

Car

los

III

19

Aproximaciones de contrastesAproximaciones de orden superior− Comon (1989, 1994) demuestra que el contraste

(ortogonal) de máxima entropía se puede aproximar por

• reduce la dependencia entre las entradas del

vector de salida en términos de los estadísticos de orden 4.

• se puede interpretar

como una “desgaussianización” del vector de salida.

[ ] [ ]( ) [ ]( )cte.2 2

Cum CumoME ijkl iiii

ijkl iiii iφ

≈ =−∑ ∑y y y

[ ]( )2Cumijkl

ijkl iiii≠∑ y

[ ]( ) ( )2 2Cum kurt[ ]iiii ii i

y− = −∑ ∑y

Uni

vers

idad

Car

los

III

20

Mezcla y gaussianidadUn concepto clave en ICA/BSS es la “no gaussianidad”− La mezcla de variables aleatorias tiende a

“gaussianizarlas”.• Teorema Central del Límite

− Si además, las componentes del vector x tienen ruidogaussiano, el problema se agrava.

El contraste de Máxima Entropía puede interpretarse como un método que “desgaussianiza”las componentes del vector x

[ ] [ ]( ) ( )2 2min min Cum max kurt[ ]φ≠

⇔ ⇔∑ ∑oME ijkl i

ijkl iiii i

yB B B

y y

11

Uni

vers

idad

Car

los

III

21

Kurtosis: medida de independenciaMedidas intuitivas de la “no gaussianidad”− Kurtosis (cumulante de cuarto orden)

• Si y tiene varianza unidad

• Las variables aleatorias gaussianas tienen kurtosis 0

{ } { }( )24 2kurt( ) 3y E y E y= −

{ }4kurt( ) 3y E y= −

•Fdp Laplaciana•Kurtosis positiva

•leptokurtic

•Supergaussiana

21( )2

yp y e−=•Fdp Uniforme•Kurtosis negativa

•platykurtic

•Subgaussiana

Uni

vers

idad

Car

los

III

22

Separación de gaussianas¿Por qué no se pueden separar señales gaussianas?− Incorrelación ⇔ Independencia

• Después del blanqueado, la kurtosis es nula.

( )2 21 2

21 2

1,2

y y

p y y eπ

+− =( )

2 21 2

2 21 22 2

1 21 2

1,2

s s

p s s e σ σ

π σ σ

− + =

Mezcla Blanqueado

12

Uni

vers

idad

Car

los

III

23

Aproximaciones de contrastesAproximaciones de orden superior− JADE: Cardoso (1993, 1999) propone un contraste

“reducido-aproximado” diagonalización conjunta

− MaxKurt: en el caso de que las fuentes tengan kurtosis con el mismo signo, se puede derivar, a partir de

[ ] [ ]( ) [ ]( ) ( )cte.2 2 2Cum Cum kurt[ ]φ

≈ = − = −∑ ∑ ∑oME ijkl iiii i

ijkl iiii i i

yy y y

[ ] [ ]cte.

4

1Cum

NoKurt iiii i

i iE yφ

=

≈ − = − ∑ ∑y y

[ ] [ ]( )2º CumJADE ijkl

ijkl iikl

φ≠

= ∑y y

Uni

vers

idad

Car

los

III

24

Aproximaciones de contrastesAproximaciones de orden superior− Máxima verosimilitud:

• Error cuadrático entre cumulantes de segundo y cuarto orden de la fdp de la salida y la propuesta para los datos

− Amari (1996) propone emplear estos cumulantes para aproximar el contraste ML

[ ] [ ] [ ]( ) [ ]( )22 22 Cum Cum Cumij ij ij i ij

ij ijφ σ δ= − = −∑ ∑y y s y

[ ] [ ] [ ]( ) [ ] ( )( )22 24 Cum Cum Cum kurt[ ]ijkl ijkl ijkl i ijkl

ijkl ijklsφ δ= − = −∑ ∑y y s y

[ ] ( )2 4 241[ ] | 12 [ ] [ ] [ ]48ML Kφ φ φ φ= ≈ + =y y s y y y

13

Uni

vers

idad

Car

los

III

25

Aplicación contrastes en BSSAplicación al problema de separación ciega

Supongamos dos fuentes s1 y s2 independientes con kurtosis kurt(s1) y kurt(s2)Si las mezclamosSi blanqueamos

Problema ICA: » Encontrar matriz de rotación U

» con la que se consiga independencia ⇔max. no gaussianidad⇔min. contraste

» Según Máxima Entropía,

» y la solución es

2 1 2 2 2 1× × ×=x A s1

2 1 2 2 2 2 2 12

cos sinsin cos

ss

φ φφ φ× × × ×

− = =

z W A s

[ ] 24 41 2min cos ( ) kurt( ) sin ( ) kurt( )ME s s

ϑφ ϑ φ ϑ φ= + + +y

s1

s2

x1

x2

y1

y2

z2

z1

2 1 2 2 2 2 2 2 2 1

2 2 2 1

× × × × ×

× ×

==

y U W A sC s

A

W

U

2 2

cos sinsin cos

ϑ ϑϑ ϑ×

− =

ϑ φ= −

[ ]minϑφ y

Uni

vers

idad

Car

los

III

26

Aproximaciones sinusoidalesContraste ME

[ ] [ ]( ) [ ]( )22 CumCum yyy jjjjiiiiME −−=φ

z1

z2

βρ

y2

y1

γ=θ+ β

2γ4

2γ2γ4ργ4 32

121

163

41

ccccME κκκκκφ −−−+=

0 4020 60 80-3

-2

-1

0

1

2

3

+

_

14

Uni

vers

idad

Car

los

III

27

Aproximaciones sinusoidalesContraste SICA

[ ] [ ]( ) [ ]( )22 CumCum yyy jjjjiiiiME −−=φ

2γ4

2γ2γ4ργ4 32

121

163

41

ccccME κκκκκφ −−−+=

( )24γ ρ 4γ 2γ

1 3 1 44 16 2SICA c c c fφ κ κ κ κ θ= + − − =

Se elimina (SICA)

Min. φºSICA1flop

Min. φºME1400 flops Separación

Máxima Mezcla

0 0,5 1 1,5Rotación (rad)

φºSICAφºME

θ

Uni

vers

idad

Car

los

III

28

Blanquear

z1

z3

z2

y1

y3

y2

x1

x3

x2

yj

yi

θij

x

z

Mientras no se llegue a separación:•Aplicar SICA en cada plano bidimensional yi,yj:

Se calculan momentos Mij4

Se calcula θij que minimiza φSICA(θij, Mij

4), y se rota.

y

SICA: N dimensiones

15

Uni

vers

idad

Car

los

III

29

Inicializar Momentos, M4

Blanquear

Mientras no se llegue a separación:•Aplicar SICA en cada plano bidimensional yi,yj:

Se calculan rotan momentos M4: Mij4

Se calcula θij que minimiza φSICA(θij, Mij4) y

se rota.

y

M4 requiere ¼ de la memoria necesaria en el

JADE

El número de operaciones disminuye

SICA inicializado: ISICA

Uni

vers

idad

Car

los

III

30

2 4 6 8 10 120

1

2

3

4

η n

Número de fuentes, N.

n=50 n=100n=200n=300

n=103

n= 1010SICA

ISICA

OSICA¿Cuándo usar inicialización?

¿Cuando n >>0? (Cardoso , 1999)

MACsno inicializado

ηn=MACsinicializado

(n : número de muestras)

SICA si N≥8ISICA si N<8

16

Uni

vers

idad

Car

los

III

31

0.5 1 1.5 2

-10-505

Indi

cede

Sepa

raci

ón (d

B)

0.5 1 1.5 20

2

4 x 107

Flop

s

0.5 1 1.5 20123

Tiem

po C

PU (s

g)

Muestras x 104

JADE ME (Comon)

ISICA SICA

SICA

6 fuentes uniformemente distribuidas

Uni

vers

idad

Car

los

III

32

SICA

0.1 0.2 0.3 0.4 0.51520253035

Indi

cede

Sepa

raci

ón (d

B)

0.5 1 1.5 20

2

4x 108

Flop

s

0.5 1 1.5 20

10

20

Tiem

po

CPU

(sg)

ISICA SICA JADE ME (Comon)

Muestras x 104

12 fuentes:− 9 uniformentedistribuidas− 3 gaussianas al cubo

17

Uni

vers

idad

Car

los

III

33

Parte III

Gradiente natural y relativo

Uni

vers

idad

Car

los

III

34

Escenario en BSS

En espacios euclídeos, la ley de aprendizaje basada en el gradiente (estocástico) permite alcanzar una solución:

− El algoritmo es estable cuando el contraste es mínimo.Problema − el espacio de las matrices “invertibles” B no es euclídeo.

Algoritmos adaptativos de BSS

1 ( )t t tλ φ+ = − ∇B B B

Axt Bt

ytst

1−≈B AMezcla

Separación

18

Uni

vers

idad

Car

los

III

35

Gradiente relativoGradiente convencional: espacio euclídeo− la transformación infinitesimal de B se expresa como

Gradiente relativo: − la transformación infinitesimal de B se expresa como

( )→ + = +B I B B Bεε

→ +B B ε

B+B Bε

+B εEspacio de las

matrices de separación

Uni

vers

idad

Car

los

III

36

Gradiente relativoGradiente convencional: espacio euclídeo

Gradiente relativo:

Comparación:

( | () ( ) ( ) )oφ φ φ+ ∇ += +B B Bε ε ε

, 1

donde |N

Tij ij

i j

Traza A B=

= = ∑A B A B y ( )ijBφφ ∂

∇ =∂

B

( | () ( ) ( ) )oφ φ φ+ ∇ += +B B B B Bε ε ε

ˆ ( ) ( ) Tφ φ∇ ∇=B B B

B+B Bε

+B εEspacio de las

matrices de separación

ˆ ( )φ∇ B( )φ∇ B

ˆ( | () ( ) ( ) )oφ φ φ+ ∇ += +B B B Bε ε ε

19

Uni

vers

idad

Car

los

III

37

Gradiente naturalGradiente natural:− Planteamiento: encontrar dB que minimiza

Comparación:

( |) ( ) ( )d dφ φ φ+ ∇= +B B B B B2 2teniendo en cuenta que d ε=B

B+B Bε

+B εEspacio de las

matrices de separación

ˆ ( )φ∇ B( )φ∇ B

min ( )d

dφ +B

B Bd+B B

( )φ∇ B gradiente natural

ˆ( ) ( ) ( ) Tφ φ φ∇ ∇ ∇= =B B B B B B

Uni

vers

idad

Car

los

III

38

Gradiente convencional y natural(a) Gradiente convencional(b) Gradiente natural

20

Uni

vers

idad

Car

los

III

39

Gradiente convencional y naturalGradiente convencional y natural

Uni

vers

idad

Car

los

III

40

Algoritmo de aprendizajeAlgoritmo basado en el Gradiente convencional:

− En el caso de emplear ML:

• Teniendo en cuenta que

Por tanto

• y que

1 ( )t t tλ φ+ = − ∇B B B

( )( )-11 ( )

TTt t tλ ϕ+ = − −B B y y I B

( ) 1( ) log ( ) ( )= = ( )

( )y k k i i

j i i jij i i

p q y d q y x yB q y

ϕ −∂ − ′

− ∂

∫ y yB y

[ ] [ ]1 1

( )( ) | ( ) ( ) log

( ) ( )y

ML ML y yN N

pK p q p d

q s q sϕ ϕ = = = ∫

yy Bx y s y y

.( ) ( ) log ( ) log det( )

cte

y yH p p d= − =∫y y y y B

( )1( )T

H −∇ =B y B

21

Uni

vers

idad

Car

los

III

41

Algoritmo de aprendizajeAlgoritmo basado en el Gradiente natural:

− En el caso de emplear:

Algoritmo basado en el gradiente relativo

B+B Bε

+B εEspacio de las

matrices de separación

ˆ ( )φ∇ B( )φ∇ B

min ( )d

dφ +B

B Bd+B B

( )φ∇ B gradiente natural

1 ( )t t tλ φ+ = − ∇B B B

( )1 ( )Tt t tλ ϕ+ = − −B B y y I B

[ ]MLφ y

1, ,

( )siendo ( ) "score function"( )

T i i

i i i N

q yq y

ϕ=

′= − …

y

( )1 ( )Tt t λ ϕ+ = − −B B y y I

ˆ( ) ( ) ( ) Tφ φ φ∇ ∇ ∇= =B B B B B B

Uni

vers

idad

Car

los

III

42

Algoritmo de aprendizajeAlgoritmo ML − Gradiente natural:

− Gradiente relativo

− Gradiente convencional− ¿ϕ(y)?: si no se conoce, se emplean funciones no

lineales y3, y5, ...• Al multiplicar ϕi(yi) por yj se generan productos cruzados

( )1 ( )Tt t tλ ϕ+ = − −B B y y I B

( )1 ( )Tt t λ ϕ+ = − −B B y y I

ϕ(y)

y

( )( )11 ( )

TTt t tλ ϕ −+ = − −B B y y I B

22

Uni

vers

idad

Car

los

III

43

Algoritmo de aprendizaje¿ϕ(y)?: − Supongamos una fdp Laplaciana

[ ] 1, ,1, ,

( )entonces ( ) sgn( )( )

T i ii i N

i i i N

q y yq y

ϕ=

=

′= − =

……

y

ϕ(y)

y

21( )2

yiq y e−=

Uni

vers

idad

Car

los

III

44

[ ] 0)sgn(E 12 =−+−= dcbayy

Centros de masa de cada cuadrante

y1

y2y2

y1

abc

d

( )( ) kH

kkkk BIyyBB −−=+ sgn1 λ

Máxima Verosimilitud, Gradiente Natural

( ) ( )( ) kH

kkkk Iλ ByyBB −−=+ sgn1 ϕ

Momentos de orden superior

La función signo: centro de masa

23

Uni

vers

idad

Car

los

III

45

Versión Ortogonal: Median-EASIEl algoritmo EASI (Equivariant Adaptive Separation via Independence) actualiza la matriz de separación según la siguiente ley de aprendizaje:

Blanqueado Rotación

( ) kH

kkHkk

Hkkkk ByyyyIyyBB )()(1 ϕϕ −+−−=+ λ

Median-EASI:

( ) kH

kkHkk

Hkkkk ByyyxIyyBB )(sgn()sgn()()sgn(1 ϕϕ )−+−−=+ λ

Uni

vers

idad

Car

los

III

46

M-EASI: Recuperación de fases

EASI

M-EASI

24

Uni

vers

idad

Car

los

III

472000 4000 6000 80000

10

20

Muestras

Indi

cede

Sep

. (dB

) EASI M-EASI

2000 4000 6000 80000

10

20

Muestras

Indi

cede

Sep

.(dB

) EASI M-EASI

M-EASI: mezclas ruidosas

Con ruido

Sin ruido

Uni

vers

idad

Car

los

III

48

Estabilidad: caso regular

-4 -2 0 2 4

κi-γj

4

2

κi-γj 0

-2

-4

Estable

ML,Gradiente NaturalML,Gradiente Mediana

25

Uni

vers

idad

Car

los

III

49

Parte IV

Aplicaciones

Uni

vers

idad

Car

los

III

50

SICA en ECG Fetal

ECG

26

Uni

vers

idad

Car

los

III

51

ECG

SICA en ECG Fetal

Uni

vers

idad

Car

los

III

52

SICA en ECG Fetal: Carga Computacional

Método FlOps Tiempo de CPU

SICA 6.7 106 0.52

JADE 15.1 106 (∆ = 125%) 0.69 (∆ = 32%)

27

Uni

vers

idad

Car

los

III

53

x1

x2

x3x’3

x’2

x’1

x y=Bx x’

Se Obtienen Registros

ERP

ICA Componentes Independientes

El personal especializado selecciona una componente para proyectarla en el cuero cabelludoB B-1

SICA en ERP- EEG

Uni

vers

idad

Car

los

III

54

SICA en ERP- EEG

28

Uni

vers

idad

Car

los

III

55

SICA en ERP- EEG

Uni

vers

idad

Car

los

III

56

SICA en EEGCarga Computacional y Separación

Método FlOps Tiempo de CPU (sg) p.v.a.f

SICA 6.5 106 0.61 97%

E. Infomax 49.7 106 (∆ = 664%) 3.19 (∆ = 422%) 88%

JADE 40.2 106 (∆ = 518%) 2.09 (∆ = 242%) 95%

29

Uni

vers

idad

Car

los

III

57

CDMA y BSSSistema CDMA con N-usuarios:

La señal recibida x es la superposición de las señales ensanchadas de los N usuarios más ruido aditivo gaussiano.

b1

b2

bN

...

code1

code2

codeN

L chips

P1

P2

PN

ruido

L chips

1L1NNL1L nbΗx ×××× +=

NL×H

BSS permite recuperar b a partir de x sin conocer H→ independencia estadísitica

Uni

vers

idad

Car

los

III

58

Arquitectura del Rx CDMAArquitectura RX ciego para CDMA

− El separador de subespacio proyecta el espacio de entrada (L) en el subespacio de señal (N) : SVD, MPLL (Barry 1998), ...

− El bloque separador recupera los usuarios.

Rx CDMA Ciego

Canal=f(H)xt zt yt

L x N N x L N x N

bt

γt

Separador

SubespacioBSS

S

30

Uni

vers

idad

Car

los

III

59

Subespacio I-WR (semiciego)

Subespacio I -MEASI (ciego)

Subespacio II-MEASI (ciego)

MMSE

Filtro Adaptado

Rx CDMA: MUD

0 1000 2000 3000 40000

5

10

15

208 Usuarios SNR: 20 MAI: 0

SIN

R (d

B)

Muestras

0 1000 2000 3000 40000

5

10

15

20

SIN

R (d

B)

8 Usuarios SNR: 20 MAI: 30

Muestras 0 1000 2000 3000 4000

0

5

10

15

20

SIN

R (d

B)

8 Usuarios SNR: 20 MAI: 15

Muestras 0

Uni

vers

idad

Car

los

III

60

Rx CDMA: BER

0 2 4 6 8 10 12

10-4

10-3

10-2

10-1

8 usuarios y MAI: 15

BER Rx's con M-EASI

Otro Rx ciego (1998)

SNR

Filt. Adap

MMSE

31

Uni

vers

idad

Car

los

III

61

Descomposición imagen

ICAB

Procesado componentes

Composición imagen

I xt yt

X=

I=n

m/k x n/k

k x k

m

xt

Procesado ICA de imagen

Uni

vers

idad

Car

los

III

62

Descomposición Imagen BG

InserciónComponentes

Composición Imagen

B-1G

Descomposición Marca BM

Extraccióncomponentes

marca

Descomposición imagen selladaBG

Composición MarcaB-1

W

ManipulacionesAtaques

Procesado ICA de imagen

32

Uni

vers

idad

Car

los

III

63

Sellado Robusto

Sella

do R

obus

to

Orig

inal

Rec

orte

y ru

ido

JPEG

80%

Suav

izad

o

Uni

vers

idad

Car

los

III

64

Sella

do R

obus

to

Orig

inal

Rec

orte

y ru

ido

JPEG

80%

Suav

izad

o

top related