lunes, 28 de noviembre de 2011

Resumen

Procesamiento de Imagenes

En el proceso digital de imagenes se distinguen dos niveles principales de manera general (DIP-IAU,2000).

       *Procesamiento de imagenes a bajo nivel.
                  -Muy poco uso de conocimiento respecto al contenido de las imagenes
                  -Comunmente se reconoce una secuencia de cuatro para el procesamiento a bajo nivel.
       *Entendimiento de imagenes a alto nivel.
                  -Existe la capacidad de realizar toma de desiciones respecto al contenido de las imagenes.

El procesamiento de imagenes esta dado por un conjunto de operaciones llevadas a cabo sobre las imagenes  a fin de realizar mediciones cuantitativas para poder describirlas;  es decir, extraer siertas caracteristicas que permitan mejorar, perfeccionar o detallar la imagen.

Una caracteristica es un atributo usado para hacer desiciones respecto a objetos en la  imagene. Algunos atributos son naturales y se definen mediante la apariencia visual de la imagen, en tanto otros, los artificiales, son el resultado de operaciones realizada a la imagen.


En el procesamiento digital de imágenes, existen diversas aplicaciones y problemas:
-Representación
-Transformación
-Modelado
-Restauración
-Análisis
-Comprensión de datos

Filtros para la eliminación de ruido en las imágenes
se define como ruido cualquier entidad de imágenes, datos o resultados intermedios que no son interesantes para la computación que se pretende llevar acabo.
Se considera como ruido en las imágenes electrocardiografías un fondo con cuadriculado, así como cualquier otro pixel ajeno a las curva del electrocardiograma que pueda representarse en la imagen.
Las técnicas de filtraje son transformaciones de la imagen pixel a pixel, que no dependen solamente del nivel de gris de un determinado pixel, si no también del valor de los niveles de gris de los pixeles vecinos en la imagen original. El proceso de filtraje se realiza utilizando matrices denominadas mascaras, que son aplicadas sobre la imagen. La imagen resultante de la aplicación de un filtro es una nueva imagen. Ls filtros sirven para suavizar o realzar detalles de la imagen, o inclusive minimizar efectos de ruido.
Filtro gaussiano
 Este filtro implementa mascaras que intentan imitar la forma guassiana: , donde x,y son las coordenadas de la imagen y sigma una desviación estándar de la probabilidad de distribusion asociada.
El filtro tiene el inconveniente de que, además de remover el ruido, empaña la imagen ocasionando perdida de los detalles mas finos.
Filtro mediana
El objetivo de este filtro es reducir el empañamiento de los bordes. Este filtro reeplaza el pixel actualmente analizado en la imagen por la mediana con el brillo respecto a los vecinos mas cercanos. Este filtro tiene la ventaja de no ser afectado por los pixeles vecinos ruidosos. La eliminación del ruido es bastante buena, con la ventaja de no empañar demasiado los bordes.
Filtro de suavizado direccional
La eliminación de ruido mediante suavizado distorsiona la información con respecto a los bordes al realizar el suavizado se puede usar un filtro de promediado direccional.
Filtro de suavizado conservador
Su procedimiento consiste en encontrar los valores máximo y mínimo de intensidad para cada uno de los pixeles que se encuentran alrededor del pixel a analizar. Si la intensidad del pixel central cae dentro del rango de sus vecinos no se realiza cambio alguno, por el contrario si la intensidad del pixel central es mayor que el valor máximo, el pixel central toma el valor del máximo. Si la intensidad del pixel central es menor que el valor mínimo, dicho valor es asignado al pixel central.

Realce de contraste

La técnica tiene como objetivo mejorar la calidad de las imágenes bajo ciertos criterios subjetivos del ojo humano. Normalmente esta técnica es utilizada como una etapa de pre-procesamiento para sistemas de reconocimiento de patrones.

Filtro paso bajo

Es un filtro de suavizado empleado para remover ruido de alta frecuencia espacial en una imagen digital. Este ruido es generalmente introducido en la imagen durante el proceso de conversión análogo digital como un efecto secundario de la conversión física de patrones de energía luminosa a patrones eléctricos.

Filtro paso alto

Es igual el proceso que en el de paso bajo, con un resultado opuesto. En vez de obtener un suavizado de la imagen, el filtro realza detalles de la imagen. Esto suele enfatizar mucho el ruido en la imagen.

 Filtro SUSAN

Aísla únicamente los pixeles que se encuentran dentro de la región del pixel analizado tomando un excedente de promedio de los pixeles en la localidad, siendo este un núcleo circular de pixeles utilizado para el calculo matemático del nuevo valor del pixel.
Este filtro integra los mejores aspectos de los métodos de reducción de ruido existentes incluyendo la preservación de bordes, arrojando, por consiguiente, resultados bastante aceptables.

Operadores para la detección de bordes

La detección de esquinas y líneas se basa en los operadores de deteccion de bordes, mismos que, mediante el cálculo de primeras y segundas derivadas permiten determinar puntos de principal importancia para poder realizar las mediciones necesarias.
Las técnicas utilizadas para determinar los objetos de interés son conocidas como técnicas de segmentación. Una de las más comunes es la segmentación mediante la detección de bordes.
El objetivo de un algoritmo de detección de bordes es obtener imágenes cuya salida se muestre en pixeles de mayor intensidad en los valores que demuestren transiciones cercanas. Los bordes son encontrados en zonas de la imagen donde el nivel de intensidad fluctua bruscamente.
Para poder detectar los bordes de los objetos debemos detectar aquellos puntos de borde que los forman. Así, un punto de borde puede ser visto como un punto en una imagen donde se produce una discontinuidad en el gradiente. Un buen proceso de detección de los bordes facilita la elaboración de fronteras de objetos, con el que el proceso de reconocimiento de objetos se simplifica.

Visión por computadora

La experiencia en el mundo en que vivimos esta cubierta por una variedad sin fin de objetos, animados e inanimados. Así pues, si la visión es un medio para un fin – conocer el mundo observándolo – la visión artificial es exactamente lo mismo salvo que el medio por el cual se adquiere el conocimiento ahora es un instrumento de cómputo más bien que el cerebro de alguna ser vivo. Sin duda, esto es una definición muy amplia. Pero el tema de la visión artificial es extenso: los asuntos tales como la restauración de imágenes, mejoramiento de imagen, inspección visual automatizada, visión robótica, escenas tridimensionales, y percepción y cognición visual todas forman parte del término “Visión Artificial”.
Como hemos visto, a la visión artificial le compete estudiar la estructura física tridimensional del mundo para el análisis automático de imágenes. Sin embargo, es necesaria la calidad en el uso de imágenes. Primero, analicemos una simple imagen es dedos- dimensiones y, por lo tanto, perdemos inevitable la información en el proceso de la proyección, es decir en pasar de un mundo tridimensional a una imagen de dos dimensiones.
La visión artificial incluye muchas técnicas que son útiles para si misma, Ej., el procesamiento de imágenes (que se refiere a la transformación, codificación, y transmisión de las imágenes) y los patrones, de las cuales los patrones visuales son pero solo una instancia). Más significativamente, sin embargo, la visión artificial incluye técnicas para la descripción útil de la forma y del volumen, para modelos geométricos, y para el llamado proceso cognoscitivo. Así, aunque la visión artificial se refiere ciertamente al procesamiento de imágenes, estas imágenes son solamente la materia prima de una ciencia mucho más amplia, la misma que se esfuerza en última instancia para emular las capacidades perceptivas del hombre y, quizás, para verter una luz sobre la manera por la cual él logra su interacción adaptativa y robusta con su ambiente.

Animación por computadora

La animación por computadora se puede definir como un formato de presentación de información digital en el movimiento atreves de una secuencia de imágenes o cuadros creada por la computadora, se utilice principalmente en video juegos películas.

Características de la animación 3D

 Una característica importante de la animación por computadora es que nos permite crear escenas realmente tridimensionales. Esto quiere decir que a diferencia de la animación dibujada a mano, en una escena animada por computadora es posible cambiar el ángulo de la cámara y con esto ver otra parte de la escena.
Es posible lograr que una animación se vea más realista si variamos el peso y el tamaño de los objetos. Gracias a las nuevas técnicas de graficación los objetos se pueden ver mucho más realistas. Podemos hacer incluso que aparenten ser de un  material específico cambiando las texturas y los pesos. Para cambiar el peso de un objeto es necesario cambiar el tiempo que se tarda en moverse.
Hay tres frases que componen una acción: la anticipación de la acción, la acción en si y la reacción, para que una animación se vea realista, es necesario que el tiempo empleado en cada parte de esa acción sea el indicado. También se debe de mantener el flujo y la continuidad entre las acciones y esto se lograra traslapando un poco cada parte de la acción.

Técnicas de animación

1.-animacion basada en cuadros: es la más utilizada. Para hacer una secuencia las imágenes se van filmando cuadro por cuadro y luego estos se unen para formar la animación.
2.-animacion basada en sprites: se refiere a animación basada en objetos de fondo estático, es decir, lo que cambia son los personajes. Esta técnica es aplicada en video juegos.
3.-key framming: se establecen posiciones en puntos específicos de tiempo en una animación y la parte intermedia la obtiene la computadora promedio de interpolación matemática.
4.-rotoscopiado: se obtiene la posición y el ángulo de los puntos clave de la imagen real y se trata de hacer converger los modelos en computadora con ellos.
5.-Monition control: consiste en obtener posiciones clave de manera automática a partir de un actor por medio de dispositivos que se conectan en su cuerpo.
6.-pixar: el proceso consiste de cuatro etapas desarrollo, preproducción, producción, y pos producción.
En el primer paso se da la idea de los empleados del equipo por escrito.




viernes, 18 de noviembre de 2011

Tecnicas de sombreado clasicas y avanzadas

Clasicas:

Iluminacion local.

Luces que no son extensas, como las reales, sino inextensas, puntuales. Y, por añadidura, se relacionan con los objetos como mónadas aisladas, sin tener en cuenta la interacción entre ellos. Esto explica lo artificioso de muchas de las técnicas que se describirán más adelante y que buscan compensar estas limitaciones. 

Las insuficiencias de los métodos de iluminación local se han superado en parte por medio de sistemas de iluminación global que permiten tomar en cuenta la interacción entre objetos. Las dos técnicas principales son el trazado de rayos (ray tracing) y la radiosidad (radiosity)


Renderizado en Tiempo real 

La idea fundamental del procesado en tiempo real es que todos los objetos deben ser descompuestos en polígonos. Estos polígonos serán descompuestos a su vez en triángulos. Cada triángulo será proyectado sobre la ventana bidimensional y rellenado con los colores adecuados para reflejar los efectos de la iluminación, texturas, etc. Una vez se han generado los triángulos, en la pipeline existen dos partes claramente diferenciadas: una primera etapa operaciones realizadas sobre cada uno de los vértices, y después de que éstos se proyecten sobre la ventana, entonces comienza una segunda fase de cálculos realizados para cada pixel cubierto por los triángulos.

Realistas:

Iluminación global. 

Son sencillos y rápidos pero proporcionan imágenes muy simples, que no representan adecuadamente el modo en que la luz ilumina los objetos y los espacios. Esto no quiere decir que no sean útiles para un gran número de casos, y es muy importante calibrar adecuadamente que es lo que se necesita, pues puede muy bien ocurrir que un cálculo local proporcione imágenes relativamente esquemáticas pero más adecuadas para la representación de un proyecto. 

Los métodos principales que existen en la actualidad pueden considerarse como desarrollos, con diferentes variantes, de los dos métodos principales que surgieron en la década de los 1980, ray tracing (introducido por T.Whitted en 1980) y radiosity (hacia 1984 por varios autores). Una base téorica más firme para los algoritmos y métodos de GI (Global Illumination), vino con la publicación, por Kajiya, en 1986 de la rendering equation, que puede encontrarse en un manual especializado

Trazado de Rayos 

El trazado de rayos computa la interacción de la luz desde un punto de vista determinado y es particularmente adecuado para superficies reflectantes. Puede utilizarse como propiedad específica de un determinado material.

 Radiosidad 
Está basado en principios generales que se pueden encontrar en un manual general sobre rendering. En el estadio inicial la escena consta de dos tipos de objetos: objetos que emiten luz y objetos que reciben luz. A partir de aquí, en una primera vuelta, se computa la luz que recibe cada objeto o, en una aproximación más exacta, cada parte de un objeto, según una subdivisión cuya densidad puede precisarse en sucesivas aproximaciones. Cada una de estas partes, según su grado de reflexividad, su orientación y su distancia con respecto a las fuentes de luz original, se convertirá, en una segunda vuelta, en un nuevo emisor de energía lumínica, una fuente de luz secundaria que iluminará a su vez a los objetos que le rodean.

Casi todos los modelos de iluminación necesitan conocer la normal de cada superficie para calcular su color. 

 El primero, llamado método de Gouraud, efectúa una interpolación a partir de los colores calculados por los vértices del polígono, en los que se conoce la normal. El segundo llamado método de Pong, interpola la normal en el punto en estudio a partir de las normales en los vértices, calculando a continuación el color con la ayuda de esta normal según el modelo de iluminación elegido .

Cálculos de iluminación por pixel

Iluminación por fragmento (por pixel) puede ser elaborada en hardware de gráficos moderno como un proceso de post-rasterización por medio de un programa de shader.
Pixel Shader (PS) como un pequeño programa que procesa fragments (algo así como pixelscon más datos) y que se ejecuta en la GPU. Al crear un PS, se crea una función de procesado de fragmentos que manipula datos de fragmentos.
Frecuentemente necesitan datos del VS, llegando incluso a veces a ser “conducidos” por éste. Por ejemplo, para calcular una iluminación por pixel, el PS necesita la orientación del triángulo, la orientación del vector de luz y en algunos casos la orientación del vector de vista.

 ASombreado Constante o Plano

     Obtenemos una intensidad que aplicamos a un conjunto de puntos de un objeto            *Aceleramos el proceso de síntesis
           *Correcto si se verifica.
           * Fuente de luz en el infinito
           *Observador en el infinito

•    Interpolación de Intensidades (Gouraud)

      Se basa en la interpolación de intensidad o color
      Considera que facetas planas vecinas proceden deaproximar una superficie curva (salvo que se  declare una arista real entre ambas)
      *Elimina en gran medida las discontinuidades de iluminación
      * Es sencilla, pero produce peores resultados en objetos con brillos especulares que el método      de Phong
      *Implementado en OpenGL


 Fuentes de Luz 

La luz puede dejar una superficie mediante dos procesos fundamentales:
*  Emisión propia 
* Reflexión 
Normalmente se piensa en una fuente de luz como un objeto que emite luz solo mediante fuentes de energía internas, sin embargo, una fuente de luz, como un foco, puede reflejar alguna luz incidente a esta del ambiente. Este aspecto no será tomado en cuenta en los modelos más sencillos.

Fuentes de Luz Distantes 

La mayoría de los cálculos de sombreado requieren la dirección de un punto sobre la superficie a la fuente de luz. Según se mueve a lo largo de la superficie, se debe recomputar este vector para calcular la intensidad en cada punto, una computación que es una parte significativa del cálculo del sombreado. Sin embargo, si la fuente de luz está lejos de la superficie, el vector no cambiará mucho según se mueve de un punto a otro, al igual que la luz del sol da en todos los objetos cercanos entre si con el mismo ángulo. 


Fuentes de Color 

No solamente las fuentes de luz emiten diferentes cantidades de luz en diferentes frecuencias, pero también sus propiedades direccionales varían con la frecuencia. Por lo tanto, un modelos físicamente correcto puede ser muy complejo. Para la mayoría de las aplicaciones, se puede modelar fuentes de luz en base a tres componentes primarios, RGB, y puede usar cada uno de los tres colores fuentes para obtener el componente de color correspondiente que un observador humano vería.


Luz Ambiente 

La luz ambiente ilumina por igual todas las zonas en sombra para simular el efecto de interacción entre objetos que hace que las partes en sombra de los objetos queden parcialmente iluminadas. 

En algunos cuartos, las luces se diseñan y ubican para proveer iluminación uniforme en el cuarto. Tal iluminación se logra mediante fuentes grandes con difusores cuyo propósito es esparcir la luz en todas las direcciones. Se puede crear una simulación precisa de tal iluminación, modelando todas las fuentes distribuidas, y luego integrando la iluminación de estas fuentes en cada punto de una superficie reflectora. Hacer tal modelo y generar la escena sería un tarea formidable para un sistema gráfico, especialmente si se desea ejecución en tiempo real. De manera alternativa, se puede ver el efecto deseado de las fuentes: lograr un nivel de luz uniforme en el cuarto. Esta iluminación uniforme se llama luz ambiente. Si se sigue este segundo enfoque, se puede postular una intensidad ambiente en cada punto del ambiente. Por lo tanto, iluminación ambiente se caracteriza por una intensidad Ia, que es idéntica en cada punto de la escena.

Spotlights (direccionales) 

Los spotlights se caracterizan por un rango delgado de ángulos por los cuales se emite luz. Se puede construir un spotlight sencillo de una fuente de punto limitando los ángulos de donde la luz de la fuente se puede ver. Se puede usar un cono cuyo ápice está en ps, apuntando en la dirección ls, y cuyo ancho está determinado por el ángulo θ.