fundamentosdsp1.materia.unsl.edu.ar/fundamentos.pdf · fundamentos visión por computador y visión...

Post on 31-Jul-2020

13 Views

Category:

Documents

0 Downloads

Preview:

Click to see full reader

TRANSCRIPT

1

FUNDAMENTOSVisión por Computador y Visión humanaInterpretamos algunos resultados del PI según nuestra percepción visual humanaImágenes digitales se muestran con intensidades discretas, surgen entonces las preguntas:

- ¿Que Intensidades puede distinguir el ojo?

- ¿Cuál es la resolución espacial del ojo? ¿Cuál el error en la estimación de las distancias y el area?

2

FUNDAMENTOS1.Adaptación al brillo y discriminaciónEl rango total de niveles de intensidad de luz alque se puede adaptar el ojo es inmenso (10 pot 10).

La intensidad o brillo subjetivo (intensidad entanto percibida por el sistema visual humano), es una función logarítmica de la intensidad de luz incidente en el ojo.

3

Adaptación y discriminaciónEl rango de niveles de intensidad de luz,que puede discriminar simultaneamente es mas bien pequeño comparado con el rango total deadaptación.

Existe una adaptación al brillo. La curva de intersección corta representa el rango deintensidad subjetiva que puede percibir el ojo adapatado a este nivel.

4

Adaptación y discriminaciónRango de brillo subjetivo vs intesidad de Luz.Adaptación a un nivel particular de brillo o intensidad(miliLambert)

5

La relación de Weber dá una medidad de la habilidad del ojo para discriminar cambios en la intensidad de luz, dentrode un nivel de adaptación

Adaptación y discriminación

Se aumentadelta I hasta que el sujeto lo percibe lamitad de las veces (deltaIc), se define como relación de Weber al valor deltaIc/I

6

Adaptación y discriminaciónUn valor pequeño del índice, significa buena discriminación.

La gráfica muestrala relación de Weber en funciónde la intensidad. La discriminación es pobre con poca iluminación. (con bajailuminación, visión con bastones.)

7

Adaptación y discriminaciónEl brillo que se percibe no es sólo función de la intensidad real.

a) El sistema visual tiende a percibirpicos en las regionesde transición(overshoot, undershoot).

.

8

Adaptación y discriminaciónb) fenómeno del contraste simultáneo. El nivel deintensidad del medio es igual pero se percibe más brillantes cuando el fondo es mas oscuro

9

Los siguientes son los centros de las imágenesanteriores, copiadas desde el Paint para ver que tienenla misma intensidad.

Adaptación y discriminación

10

Otros ejemplos del fenómeno de percepción visual son las ilusiones ópticas.

A) se ve un cuadrado aunque no están las lineas.

B) se vé un circulo.

C) Los segmentos son iguales pero uno se vé mas corto.

D) las líneas a 45 grados son paralelas y equidistantes.

Adaptación y discriminación

11

Adaptación y discriminación

12

Las imágenes son generadas por una combinación de una fuente de iluminación y la reflección o absorción de la energía de esa fuente por los elementos de la escena enfocados.

La fuente puede ser una fuente de energía electromagnética , infrarroja, rx, ultrasonido.

El esquema general para transformar la energía de iluminación en una imagen digital es la siguiente:

la energía que ingresa se transforma en una tensión,, por la combinación de una energía eléctrica de entrada y del material del sensor. Luego se digitaliza la salida de cada sensor.

Sensores y adquisición

13

Elemento sensor individual

Sensor Lineal

Arreglo de sensores.

14

A)Sensor individual: fotodiodo, la salida es una tensión proporcional a la luz. Se puede generar tb. 2D.

Sensores y adquisición

15

b)Sensor Lineal: los sensores están en una línea. Puede haber hasta 4000, logrando gran definición , por ejemplo en un escanner.

En sistemas médicos, tomografía axial computarizada, y resonancia magnética se usa la configuración de anillo.

Una fuente de rayos X rotativa provée la iluminación y la parte del sensor que está en el lado opuesto recibe la energía de rayos x que pasa a traves del objeto, luego con el desplazamiento y un procesamiento adecuado de la información se puede construir una imagen 3D, con volumen.

Sensores y adquisición

16

17

c) Matríz oArreglo de sensores: un ejemplo típico es el arreglo de CCD. La respuesta de estos sensores es proporcional a la integral de la energía proyectada sobre la superficie del sensor.

18

Modelo simple de la formación de una imagen.

Se denotan las imágenes por medio de una función de la intensidad de la luz, en 2D, f(x,y)La amplitud de f en las coordenadas espaciales (x,y) indica la intensidad o brillo de la imagen en ese punto.

ILUMINACION Y REFLECTANCIASe puede caracterizar f(x,y) mediante doscomponentes

Modelo

19

-La cantidad de luz de la fuente incidente sobre la escena que se ve,Iluminación, i(x,y) (illumination)

-La cantidad de luz reflejada por el objeto en la escena, Reflectancia, r(x,y)f(x,y)= i(x,y)* r(x,y)

Modelo

20

i(x,y) está determinada por la naturaleza de la fuente. de luz,

0 < i(x,y) < ∞

Valores reales típicos:

día claro: 90.000 lm/

día nublado 10.000 lm/

luz luna: 0.1 lm/

2m

2m

2m

Modelo

21

r(x,y) está determinada por la naturaleza del objeto.

0 < r(x,y) <1

Valores reales típicos de r:

para negro mate 0.01, para acero inox. 0.65, para pared blanca 0.80, para plata 0.90, nieve 0.93

Modelo

22

NIVELES DE GRISEn imágenes monocromáticas, se llama a la intensidad f, en el punto (x,y) nivel de gris (l )de la imagen en ese punto

l está en un rango Lmin <l < Lmaxy la escala de grises se define = [Lmin, Lmax]

Normalmente se reduce al intervalo [0, L]

0 = negro , L = blanco

Modelo

23

Muestreo ycuantización enocho niveles de gris, sobre una linea.

Muestreo y cuantización

24

Proyección de una imagen sobre un arreglo,y muestreo y cuantización de la misma.

-Número de niveles de gris, k bits,

-número de bits para almacenar una imagen(MxN):

b = M x N x k

2k

Muestreo y cuantización

25

El resultado del muestreo ycuantización es una matriz de números reales.

Representación de imágenes digitales

26

L= número de niveles de grises. K número de bits. N número de filas y columnas.

Representación de imágenes digitales

27

Resolución espacial, es el mínimo detallediscernible en la imagen. Se define como el menor número de pares de lineas descernibles por unidad de distancia. Por ejemplo 100 pares de lineas por milímetro.(tb en MxN pixels)

Resolución de niveles de grises , el menor cambio de gris discernible. (L niveles de gris, dependiendo del número de bits de la palabra, tb en nro bits )

Resolución espacial y niveles gris

28

Imagen de 1024x 1024 pixels, con 8bits para grises, submuestreada hasta 32x32 pixels (eliminando filas y columnasimpares cada vez.)

Resolución espacial

29

Se llevan a 1024x1024 para ver la pérdida de resolución espacial al reducir el núrmero de bits.Efecto: “Tablerode ajedrez”.Replicación de filas y columnas para llevar a 1024x1024

Resolución espacial

30

Resolución espacial

1024x1024 32x32

31

Resolución de niveles de gris

Reducción Niveles de gris de 256 niveles a 2 niveles.

32

Resolución vs niveles de gris

Variar la resolución espacial (N) y los niveles de gris k, afecta de manera distinta la percepción dependiendo del nievel de detalle de la imagen.

33

Resolución vs niveles de gris

Una medida de esto son las curvas de preferencias iguales. En el rostro importan mas los niveles de gris, en la multitud importa la resolución espacial (más pixeles)

34

Zooming y ShrinkingZOOMING Crear nuevos pixels y asignarles valores:a-por interpolación del vecino (para factor noentero,),b-por replicación,c-interpolación bilineal.

SHRINKING:a- expandiendo una grilla, y luego reduciendo,(asignando el nivel de gris del vecino) b-borrado de fila y columna (equiv dereplicación),c- por interpolación bilineal

35

Zooming

Arriba zoom de I de 128x128,64x64 y 32x32 a 1024x1024 usando interpolación del vecino mas proximo,Abajo, usando interpolación bilineal.

36

Relaciones entre pixeles

•VECINOS•ADYACENTES•PATH (CAMINO)•CONECTIVIDAD•COMPONENTE CONECTADO•REGION•BORDE O CONTORNO•DISTANCIAS

37

Relaciones entre pixeles

•VECINOS: 4 vecinos, diagonal vecinos, 8vecinos•

4N 8NDN

38

Relaciones entre pixeles

•ADYACENTES: •Dos pixeles p y q son adyacentes :

•si tienen valores de gris similares (definidos en un subconjunto de niveles de gris V) •y son vecinos. (Según sean 4vecinos, 8 vecinos serán respectivamente 4_adyacentes, etc)

39

Relaciones entre pixeles•PATH (CAMINO)•Es una secuencia de pixeles distintos (xo,yo).....(xn,yn), que cumplen que cada pixel:

•(xi,yi) es adyacente del pixel (xi+1,yi+1)

•Según sea la definición que se tome de adyacencia seráel tipo de camino.

40

Relaciones entre pixeles

4_path 8_path

41

Relaciones entre pixeles

•CONECTIVIDAD •S es subconjunto de pixeles de la Imagen.•p y q estan conectados en S si existe un camino entre p y q totalmente contenido en S.•COMPONENTE CONECTADO•Para cualquier pixel p de S, el conjunto de pixeles que estan conectados a él en S se llama componente conectado.(ó Un conjunto de pixeles tal que todos los pixeles esten conectados a los demás se llaman componentes conectados. (es una region que puede ser un objeto)

42

Relaciones entre pixeles

•COMPONENTE CONECTADO

Si S es el subconjunto mostrado, tiene dos componentes conectados.

43

Relaciones entre pixeles

•REGION•R, subconjunto de una imagen, se llama Región de la imagen si es un solo componente conectado.•LIMITE O CONTORNO de una región R, es el conjunto de pixeles de R que tienen 1 o más vecinos que no estan en R.

44

Relaciones entre pixeles•DISTANCIAS

•Euclídea, City_block y chessboard.

top related