lunes, 28 de noviembre de 2011

Resumen

Procesamiento de Imagenes

En el proceso digital de imagenes se distinguen dos niveles principales de manera general (DIP-IAU,2000).

       *Procesamiento de imagenes a bajo nivel.
                  -Muy poco uso de conocimiento respecto al contenido de las imagenes
                  -Comunmente se reconoce una secuencia de cuatro para el procesamiento a bajo nivel.
       *Entendimiento de imagenes a alto nivel.
                  -Existe la capacidad de realizar toma de desiciones respecto al contenido de las imagenes.

El procesamiento de imagenes esta dado por un conjunto de operaciones llevadas a cabo sobre las imagenes  a fin de realizar mediciones cuantitativas para poder describirlas;  es decir, extraer siertas caracteristicas que permitan mejorar, perfeccionar o detallar la imagen.

Una caracteristica es un atributo usado para hacer desiciones respecto a objetos en la  imagene. Algunos atributos son naturales y se definen mediante la apariencia visual de la imagen, en tanto otros, los artificiales, son el resultado de operaciones realizada a la imagen.


En el procesamiento digital de imágenes, existen diversas aplicaciones y problemas:
-Representación
-Transformación
-Modelado
-Restauración
-Análisis
-Comprensión de datos

Filtros para la eliminación de ruido en las imágenes
se define como ruido cualquier entidad de imágenes, datos o resultados intermedios que no son interesantes para la computación que se pretende llevar acabo.
Se considera como ruido en las imágenes electrocardiografías un fondo con cuadriculado, así como cualquier otro pixel ajeno a las curva del electrocardiograma que pueda representarse en la imagen.
Las técnicas de filtraje son transformaciones de la imagen pixel a pixel, que no dependen solamente del nivel de gris de un determinado pixel, si no también del valor de los niveles de gris de los pixeles vecinos en la imagen original. El proceso de filtraje se realiza utilizando matrices denominadas mascaras, que son aplicadas sobre la imagen. La imagen resultante de la aplicación de un filtro es una nueva imagen. Ls filtros sirven para suavizar o realzar detalles de la imagen, o inclusive minimizar efectos de ruido.
Filtro gaussiano
 Este filtro implementa mascaras que intentan imitar la forma guassiana: , donde x,y son las coordenadas de la imagen y sigma una desviación estándar de la probabilidad de distribusion asociada.
El filtro tiene el inconveniente de que, además de remover el ruido, empaña la imagen ocasionando perdida de los detalles mas finos.
Filtro mediana
El objetivo de este filtro es reducir el empañamiento de los bordes. Este filtro reeplaza el pixel actualmente analizado en la imagen por la mediana con el brillo respecto a los vecinos mas cercanos. Este filtro tiene la ventaja de no ser afectado por los pixeles vecinos ruidosos. La eliminación del ruido es bastante buena, con la ventaja de no empañar demasiado los bordes.
Filtro de suavizado direccional
La eliminación de ruido mediante suavizado distorsiona la información con respecto a los bordes al realizar el suavizado se puede usar un filtro de promediado direccional.
Filtro de suavizado conservador
Su procedimiento consiste en encontrar los valores máximo y mínimo de intensidad para cada uno de los pixeles que se encuentran alrededor del pixel a analizar. Si la intensidad del pixel central cae dentro del rango de sus vecinos no se realiza cambio alguno, por el contrario si la intensidad del pixel central es mayor que el valor máximo, el pixel central toma el valor del máximo. Si la intensidad del pixel central es menor que el valor mínimo, dicho valor es asignado al pixel central.

Realce de contraste

La técnica tiene como objetivo mejorar la calidad de las imágenes bajo ciertos criterios subjetivos del ojo humano. Normalmente esta técnica es utilizada como una etapa de pre-procesamiento para sistemas de reconocimiento de patrones.

Filtro paso bajo

Es un filtro de suavizado empleado para remover ruido de alta frecuencia espacial en una imagen digital. Este ruido es generalmente introducido en la imagen durante el proceso de conversión análogo digital como un efecto secundario de la conversión física de patrones de energía luminosa a patrones eléctricos.

Filtro paso alto

Es igual el proceso que en el de paso bajo, con un resultado opuesto. En vez de obtener un suavizado de la imagen, el filtro realza detalles de la imagen. Esto suele enfatizar mucho el ruido en la imagen.

 Filtro SUSAN

Aísla únicamente los pixeles que se encuentran dentro de la región del pixel analizado tomando un excedente de promedio de los pixeles en la localidad, siendo este un núcleo circular de pixeles utilizado para el calculo matemático del nuevo valor del pixel.
Este filtro integra los mejores aspectos de los métodos de reducción de ruido existentes incluyendo la preservación de bordes, arrojando, por consiguiente, resultados bastante aceptables.

Operadores para la detección de bordes

La detección de esquinas y líneas se basa en los operadores de deteccion de bordes, mismos que, mediante el cálculo de primeras y segundas derivadas permiten determinar puntos de principal importancia para poder realizar las mediciones necesarias.
Las técnicas utilizadas para determinar los objetos de interés son conocidas como técnicas de segmentación. Una de las más comunes es la segmentación mediante la detección de bordes.
El objetivo de un algoritmo de detección de bordes es obtener imágenes cuya salida se muestre en pixeles de mayor intensidad en los valores que demuestren transiciones cercanas. Los bordes son encontrados en zonas de la imagen donde el nivel de intensidad fluctua bruscamente.
Para poder detectar los bordes de los objetos debemos detectar aquellos puntos de borde que los forman. Así, un punto de borde puede ser visto como un punto en una imagen donde se produce una discontinuidad en el gradiente. Un buen proceso de detección de los bordes facilita la elaboración de fronteras de objetos, con el que el proceso de reconocimiento de objetos se simplifica.

Visión por computadora

La experiencia en el mundo en que vivimos esta cubierta por una variedad sin fin de objetos, animados e inanimados. Así pues, si la visión es un medio para un fin – conocer el mundo observándolo – la visión artificial es exactamente lo mismo salvo que el medio por el cual se adquiere el conocimiento ahora es un instrumento de cómputo más bien que el cerebro de alguna ser vivo. Sin duda, esto es una definición muy amplia. Pero el tema de la visión artificial es extenso: los asuntos tales como la restauración de imágenes, mejoramiento de imagen, inspección visual automatizada, visión robótica, escenas tridimensionales, y percepción y cognición visual todas forman parte del término “Visión Artificial”.
Como hemos visto, a la visión artificial le compete estudiar la estructura física tridimensional del mundo para el análisis automático de imágenes. Sin embargo, es necesaria la calidad en el uso de imágenes. Primero, analicemos una simple imagen es dedos- dimensiones y, por lo tanto, perdemos inevitable la información en el proceso de la proyección, es decir en pasar de un mundo tridimensional a una imagen de dos dimensiones.
La visión artificial incluye muchas técnicas que son útiles para si misma, Ej., el procesamiento de imágenes (que se refiere a la transformación, codificación, y transmisión de las imágenes) y los patrones, de las cuales los patrones visuales son pero solo una instancia). Más significativamente, sin embargo, la visión artificial incluye técnicas para la descripción útil de la forma y del volumen, para modelos geométricos, y para el llamado proceso cognoscitivo. Así, aunque la visión artificial se refiere ciertamente al procesamiento de imágenes, estas imágenes son solamente la materia prima de una ciencia mucho más amplia, la misma que se esfuerza en última instancia para emular las capacidades perceptivas del hombre y, quizás, para verter una luz sobre la manera por la cual él logra su interacción adaptativa y robusta con su ambiente.

Animación por computadora

La animación por computadora se puede definir como un formato de presentación de información digital en el movimiento atreves de una secuencia de imágenes o cuadros creada por la computadora, se utilice principalmente en video juegos películas.

Características de la animación 3D

 Una característica importante de la animación por computadora es que nos permite crear escenas realmente tridimensionales. Esto quiere decir que a diferencia de la animación dibujada a mano, en una escena animada por computadora es posible cambiar el ángulo de la cámara y con esto ver otra parte de la escena.
Es posible lograr que una animación se vea más realista si variamos el peso y el tamaño de los objetos. Gracias a las nuevas técnicas de graficación los objetos se pueden ver mucho más realistas. Podemos hacer incluso que aparenten ser de un  material específico cambiando las texturas y los pesos. Para cambiar el peso de un objeto es necesario cambiar el tiempo que se tarda en moverse.
Hay tres frases que componen una acción: la anticipación de la acción, la acción en si y la reacción, para que una animación se vea realista, es necesario que el tiempo empleado en cada parte de esa acción sea el indicado. También se debe de mantener el flujo y la continuidad entre las acciones y esto se lograra traslapando un poco cada parte de la acción.

Técnicas de animación

1.-animacion basada en cuadros: es la más utilizada. Para hacer una secuencia las imágenes se van filmando cuadro por cuadro y luego estos se unen para formar la animación.
2.-animacion basada en sprites: se refiere a animación basada en objetos de fondo estático, es decir, lo que cambia son los personajes. Esta técnica es aplicada en video juegos.
3.-key framming: se establecen posiciones en puntos específicos de tiempo en una animación y la parte intermedia la obtiene la computadora promedio de interpolación matemática.
4.-rotoscopiado: se obtiene la posición y el ángulo de los puntos clave de la imagen real y se trata de hacer converger los modelos en computadora con ellos.
5.-Monition control: consiste en obtener posiciones clave de manera automática a partir de un actor por medio de dispositivos que se conectan en su cuerpo.
6.-pixar: el proceso consiste de cuatro etapas desarrollo, preproducción, producción, y pos producción.
En el primer paso se da la idea de los empleados del equipo por escrito.




viernes, 18 de noviembre de 2011

Tecnicas de sombreado clasicas y avanzadas

Clasicas:

Iluminacion local.

Luces que no son extensas, como las reales, sino inextensas, puntuales. Y, por añadidura, se relacionan con los objetos como mónadas aisladas, sin tener en cuenta la interacción entre ellos. Esto explica lo artificioso de muchas de las técnicas que se describirán más adelante y que buscan compensar estas limitaciones. 

Las insuficiencias de los métodos de iluminación local se han superado en parte por medio de sistemas de iluminación global que permiten tomar en cuenta la interacción entre objetos. Las dos técnicas principales son el trazado de rayos (ray tracing) y la radiosidad (radiosity)


Renderizado en Tiempo real 

La idea fundamental del procesado en tiempo real es que todos los objetos deben ser descompuestos en polígonos. Estos polígonos serán descompuestos a su vez en triángulos. Cada triángulo será proyectado sobre la ventana bidimensional y rellenado con los colores adecuados para reflejar los efectos de la iluminación, texturas, etc. Una vez se han generado los triángulos, en la pipeline existen dos partes claramente diferenciadas: una primera etapa operaciones realizadas sobre cada uno de los vértices, y después de que éstos se proyecten sobre la ventana, entonces comienza una segunda fase de cálculos realizados para cada pixel cubierto por los triángulos.

Realistas:

Iluminación global. 

Son sencillos y rápidos pero proporcionan imágenes muy simples, que no representan adecuadamente el modo en que la luz ilumina los objetos y los espacios. Esto no quiere decir que no sean útiles para un gran número de casos, y es muy importante calibrar adecuadamente que es lo que se necesita, pues puede muy bien ocurrir que un cálculo local proporcione imágenes relativamente esquemáticas pero más adecuadas para la representación de un proyecto. 

Los métodos principales que existen en la actualidad pueden considerarse como desarrollos, con diferentes variantes, de los dos métodos principales que surgieron en la década de los 1980, ray tracing (introducido por T.Whitted en 1980) y radiosity (hacia 1984 por varios autores). Una base téorica más firme para los algoritmos y métodos de GI (Global Illumination), vino con la publicación, por Kajiya, en 1986 de la rendering equation, que puede encontrarse en un manual especializado

Trazado de Rayos 

El trazado de rayos computa la interacción de la luz desde un punto de vista determinado y es particularmente adecuado para superficies reflectantes. Puede utilizarse como propiedad específica de un determinado material.

 Radiosidad 
Está basado en principios generales que se pueden encontrar en un manual general sobre rendering. En el estadio inicial la escena consta de dos tipos de objetos: objetos que emiten luz y objetos que reciben luz. A partir de aquí, en una primera vuelta, se computa la luz que recibe cada objeto o, en una aproximación más exacta, cada parte de un objeto, según una subdivisión cuya densidad puede precisarse en sucesivas aproximaciones. Cada una de estas partes, según su grado de reflexividad, su orientación y su distancia con respecto a las fuentes de luz original, se convertirá, en una segunda vuelta, en un nuevo emisor de energía lumínica, una fuente de luz secundaria que iluminará a su vez a los objetos que le rodean.

Casi todos los modelos de iluminación necesitan conocer la normal de cada superficie para calcular su color. 

 El primero, llamado método de Gouraud, efectúa una interpolación a partir de los colores calculados por los vértices del polígono, en los que se conoce la normal. El segundo llamado método de Pong, interpola la normal en el punto en estudio a partir de las normales en los vértices, calculando a continuación el color con la ayuda de esta normal según el modelo de iluminación elegido .

Cálculos de iluminación por pixel

Iluminación por fragmento (por pixel) puede ser elaborada en hardware de gráficos moderno como un proceso de post-rasterización por medio de un programa de shader.
Pixel Shader (PS) como un pequeño programa que procesa fragments (algo así como pixelscon más datos) y que se ejecuta en la GPU. Al crear un PS, se crea una función de procesado de fragmentos que manipula datos de fragmentos.
Frecuentemente necesitan datos del VS, llegando incluso a veces a ser “conducidos” por éste. Por ejemplo, para calcular una iluminación por pixel, el PS necesita la orientación del triángulo, la orientación del vector de luz y en algunos casos la orientación del vector de vista.

 ASombreado Constante o Plano

     Obtenemos una intensidad que aplicamos a un conjunto de puntos de un objeto            *Aceleramos el proceso de síntesis
           *Correcto si se verifica.
           * Fuente de luz en el infinito
           *Observador en el infinito

•    Interpolación de Intensidades (Gouraud)

      Se basa en la interpolación de intensidad o color
      Considera que facetas planas vecinas proceden deaproximar una superficie curva (salvo que se  declare una arista real entre ambas)
      *Elimina en gran medida las discontinuidades de iluminación
      * Es sencilla, pero produce peores resultados en objetos con brillos especulares que el método      de Phong
      *Implementado en OpenGL


 Fuentes de Luz 

La luz puede dejar una superficie mediante dos procesos fundamentales:
*  Emisión propia 
* Reflexión 
Normalmente se piensa en una fuente de luz como un objeto que emite luz solo mediante fuentes de energía internas, sin embargo, una fuente de luz, como un foco, puede reflejar alguna luz incidente a esta del ambiente. Este aspecto no será tomado en cuenta en los modelos más sencillos.

Fuentes de Luz Distantes 

La mayoría de los cálculos de sombreado requieren la dirección de un punto sobre la superficie a la fuente de luz. Según se mueve a lo largo de la superficie, se debe recomputar este vector para calcular la intensidad en cada punto, una computación que es una parte significativa del cálculo del sombreado. Sin embargo, si la fuente de luz está lejos de la superficie, el vector no cambiará mucho según se mueve de un punto a otro, al igual que la luz del sol da en todos los objetos cercanos entre si con el mismo ángulo. 


Fuentes de Color 

No solamente las fuentes de luz emiten diferentes cantidades de luz en diferentes frecuencias, pero también sus propiedades direccionales varían con la frecuencia. Por lo tanto, un modelos físicamente correcto puede ser muy complejo. Para la mayoría de las aplicaciones, se puede modelar fuentes de luz en base a tres componentes primarios, RGB, y puede usar cada uno de los tres colores fuentes para obtener el componente de color correspondiente que un observador humano vería.


Luz Ambiente 

La luz ambiente ilumina por igual todas las zonas en sombra para simular el efecto de interacción entre objetos que hace que las partes en sombra de los objetos queden parcialmente iluminadas. 

En algunos cuartos, las luces se diseñan y ubican para proveer iluminación uniforme en el cuarto. Tal iluminación se logra mediante fuentes grandes con difusores cuyo propósito es esparcir la luz en todas las direcciones. Se puede crear una simulación precisa de tal iluminación, modelando todas las fuentes distribuidas, y luego integrando la iluminación de estas fuentes en cada punto de una superficie reflectora. Hacer tal modelo y generar la escena sería un tarea formidable para un sistema gráfico, especialmente si se desea ejecución en tiempo real. De manera alternativa, se puede ver el efecto deseado de las fuentes: lograr un nivel de luz uniforme en el cuarto. Esta iluminación uniforme se llama luz ambiente. Si se sigue este segundo enfoque, se puede postular una intensidad ambiente en cada punto del ambiente. Por lo tanto, iluminación ambiente se caracteriza por una intensidad Ia, que es idéntica en cada punto de la escena.

Spotlights (direccionales) 

Los spotlights se caracterizan por un rango delgado de ángulos por los cuales se emite luz. Se puede construir un spotlight sencillo de una fuente de punto limitando los ángulos de donde la luz de la fuente se puede ver. Se puede usar un cono cuyo ápice está en ps, apuntando en la dirección ls, y cuyo ancho está determinado por el ángulo θ.


lunes, 3 de octubre de 2011

Fractal

La definición del sistema L
La definición de un sistema L especifica aspectos que tienen que ver con la propia
definición formal del sistema L, reglas de producción, axioma, etc., y su interpretación
geométrica. La definición de un sistema L viene a ser el equivalente al código fuente de
un programa escrito en un lenguaje de programación. En realidad, puede considerarse
como un lenguaje simplificado y especializado en la definición de sistemas L.
Por ejemplo, la siguiente definición corresponde a una de las estructuras arbóreas de
Honda:
SistemaL MonopodicoHondaA;
// estructura monopódica arbórea según Honda
define r1=0.9; // razón de contracción en el tronco
define r2=0.6; // razón de contracción en las ramas
define a0=45; // ángulo de ramificación respecto al tronco
define a2=45; // ángulo de ramificación en las ramas laterales
define wr=1/sqrt(2); // razón de estrechamiento
define d=FibAngle; // ángulo de divergencia
indicecolor = 1;
elementobase = {
forma = cilindro;
nocaras = 8;
};
noterminales = {A,B,C};
axioma = A(50,10);
derivaciones = 10;
producciones = {
p1: A(l,w) : true -> "(w)F(l)[&(a0)B(l*r2,w*wr)]/(d)A(l*r1,w*wr);
p2: B(l,w) : true -> "(w)F(l)[-(a2)$C(l*r2,w*wr)]C(l*r1,w*wr);
p3: C(l,w) : true -> "(w)F(l)[+(a2)$B(l*r2,w*wr)]B(l*r1,w*wr);
};
La definición formal del sistema L es obligatoria pero los aspectos relacionados con
la interpretación geométrica son opcionales. Al omitir alguno de ellos se asume su valor
por defecto.
Cada sentencia o definición de un aspecto del sistema L se termina con un punto y
coma que actúa como separador de sentencia. Los conjuntos se delimitan con llaves.
Aunque no hay límite en la longitud de cada línea de texto, una misma definición puede
ocupar varias líneas, por ejemplo en el caso de reglas de producción con condiciones o
sucesores demasiado grandes, para hacer la definición más legible.
Los identificadores de los parámetros y los símbolos de los módulos son sensibles a
las mayúsculas. No así las palabras reservadas para la definición del sistema L o las
funciones. Pueden contener números pero deben comenzar por una letra.
Para una descripción detallada de la sintaxis de las definiciones de los sistemas L se
puede consultar el anexo que contiene la gramática completa de las definiciones.
Nombre del sistema L
Cada sistema L posee un nombre o identificador a modo de título descriptivo.
Generalmente se coloca al principio de la definición. Por ejemplo
SistemaL PodaBasitona;
El nombre del sistema L no tiene por qué coincidir con el nombre del archivo DSL
en el que se guarda su definición.
Comentarios
Se pueden escribir notas o comentarios en la definición. El analizador sintáctico
ignora todos los caracteres que van después del símbolo // hasta el final de línea. Por
ejemplo:
define w0 = 1/sqrt(2); // grosor inicial del tronco
Definición de parámetros constantes
Cada sistema L puede definir un conjunto de parámetros constantes con un
significado particular. Su cometido es muy similar al de las constantes de los lenguajes
de programación. Facilitan la lectura e interpretación de las expresiones matemáticas y
estructuran la información relevante del sistema L. Su definición se hace con la palabra
reservada define.
La siguiente definición incluye varios parámetros significativos en la construcción
del sistema L:
SistemaL MonopodicoHondaC;
define r1=0.9; // razón de contracción en el tronco
define r2=0.8; // razón de contracción en las ramas
define a0=45; // ángulo de ramificación respecto al tronco
define a2=45; // ángulo de ramificación en las ramas laterales
define wr=1/sqrt(2); // razón de estrechamiento
define d=FibAngle; // ángulo de divergencia
noterminales = {A,B,C};
axioma = A(50,10);
derivaciones = 7;
73
producciones = {
p1: A(l,w) : true -> "(w)F(l)[&(a0)B(l*r2,w*wr)]/(d)A(l*r1,w*wr);
p2: B(l,w) : true -> "(w)F(l)[-(a2)$C(l*r2,w*wr)]C(l*r1,w*wr);
p3: C(l,w) : true -> "(w)F(l)[+(a2)$B(l*r2,w*wr)]B(l*r1,w*wr);
};
La definición de un parámetro constante puede estar en función de otro parámetro
constante siempre y cuando haya sido definido previamente.





Ventanas de visualización
Uno de los objetivos principales de la aplicación es poder visualizar de alguna
manera los objetos generados por los sistemas L. Para ello existe un tipo de ventana
especialmente dedicada a la visualización. Permite ver objetos planos o tridimensionales,
en perspectiva, con distintas opciones de iluminación y render. Además hace posible
observar los objetos visualizados desde distintos puntos de vista y a diferentes niveles de
detalle. Todo ello se logra de una manera muy sencilla, controlada de manera directa
con el ratón o de forma más precisa con el teclado.
Cada vez que sea necesario disponer de una nueva ventana de visualización bastará
con abrir una desde el menú Ventana > Nueva vista. La nueva vista aparecerá
inicialmente vacía. No obstante, hay que tener en cuenta que cada ventana abierta
consume recursos con lo que el rendimiento de las demás ventanas o de la aplicación en
general, puede verse disminuida.
Los resultados de las interpretaciones de cadenas producidas por los sistemas L se
mostrarán en la vista activa, es decir la última ventana de visualización sobre la que se
realizó algún tipo de operación. En caso de que ya existiera alguna escena previa se
eliminará para mostrar la nueva. Si no hay ninguna ventana de visualización disponible
se abrirá una de manera automática.


domingo, 11 de septiembre de 2011

HISTORIA DE LA GRAFICACION


 ENIAC, una de las primeras computadoras, calculaba densidades de neutrón transversales para ver si explotaría la bomba de hidrógeno.

     El siguiente paso en la evolución de las computadoras fue la creación de dispositivos de visualización que permitían al usuario de una computadora observar los resultados del procesamiento en el dispositivo. La primera computadora que utilizó un CRT (Tubo de Rayos Catódicos) como dispositivo de visualización fueWhirlw ind, construida en el MIT (Instituto Tecnológico de Massachussets) en 1950 para simular vuelos de entrenamiento de los escuadrones de bombarderos de la marina de Estados Unidos.


 El sistema para la defensa espacial SAGE, desarrollado para convertir los sonidos de detección de un radar en imágenes, fue el primero en emplear un lápiz óptico para seleccionar símbolos en la pantalla.

     El primer videojuego de la historia fue creado en 1952, con el nombre de OXO. Se elaboro para demostrar la interactividad entre computadoras y seres humanos. El juego era una versión del conocido “tres en raya” y fue escrito para la computadora EDSAC.

     La enorme computadora EDSAC en la que se corría el juego fue la primera computadora electrónica capaz de almacenar programas. El juego aunque tenía un nivel de interacción solo permitía un jugador. En 1961 un estudiante del MIT, Steve Russell creó el primer videojuego interactivo de naves espaciales. Fue en 1963 cuando se creó el primer sistema que permitía la manipulación directa de objetos gráficos y fue el precursor de los sistemas modernos de gráficos por computadora y los programas de diseño asistido por computadora (CAD). El sistema, creado para aplicaciones de diseño e ingeniería fue desarrollado por Ivan Sutherland. El sistema permitía a los usuarios dibujar puntos, segmentos de líneas rectas y arcos circulares directamente sobre la pantalla mediante un lápiz óptico.

     El Sketch pad inventado por Ivan Sutherland fue el primer sistema interactivo de gráficos por computadora utilizado para aplicaciones de diseño e ingeniería.

     En 1966 Sutherland  junto con Bob Sproull fue el primero en implementar un sistema de realidad virtual, a través del cual, con la ayuda de un casco, los usuarios podían ingresar virtualmente en una habitación y mirar en todas direcciones una vez adentro. El primer dispositivo de este tipo fue introducido al mercado por IBM en 1965.

     En 1968 Tektronix introdujo un CRT con tubo de almacenamiento que permitía retener permanentemente un dibujo hasta que el usuario decidiera borrarlo. Sus modelos 601 y 611 fueron los primeros en su línea de productos diseñados especialmente para gráficos por computadora. El primer modelo comercial de Tektronix fue el 4002A con un precio aproximado de 9000 dólares.

     1970 La primera animación por computadora que Catmull vio fue la de si mismo. El creó una animación de su mano abriéndose y cerrándose. Se volvió uno de sus objetivos crear una película entera usando gráficos por computadora.

     A partir de 1970 se comenzaron a introducir los gráficos por computadora en el mundo de la televisión. Computer Image Corporation (CIC) desarrollo sistemas complejos de hardware y software como ANIMAC, SCANIMATE y CAESAR. Todos esos sistemas funcionaban escaneando una imagen existente, para después manipularla, aplastándola, estirándola, girándola y haciéndola volar por la pantalla, etc

     1971, el microprocesador. Usando tecnología de circuitos integrados desarrollada en 1959, la electrónica de un procesador de computadora fue reducida a un único chip, el microprocesador a veces llamado CPU. Primeras microcomputadoras de escritorio diseñada para uso personal fue la Altair 8800 de Micro Instrumentation Telemetry Systems (MITS) se vendia alrededor de los 400 dolares

     En el mismo año Nolan Kay Bushnell  creo elAtari. Después de esto comenzó el desarrollo de un videojuego de arcadia llamado Pong, que se conoció en 1972 y comenzó una industria que continúa siendo hasta hoy una de las que mayor uso hace de los gráficos por computadora.

 Durante la década de los 70’s Don Greenberg creó un laboratorio de gráficos por computadora que produjo nuevos métodos de simulación realista de superficies. El programa es bien conocido por sus trabajos en síntesis de imágenes realistas, incluyendo el método de radiosidad para el cálculo de iluminación directa e indirecta en escenas sintéticas.

     1980 fue mostrada una impactante película titulada “Vol Libre”. Se trataba de un vuelo de alta velocidad a través de montañas fractales generadas por computadora.

     A finales de los 70’s Carpenter había construido modelos en 3D de diseños de aeroplanos.

     En 1986 se formó Pixar cuando la división de gráficos por computadora de Lucasfilm fue adquirida por Steven Jobs. Produjo el famoso software Renderman. Renderman es un API desarrollada por los estudios de animación Pixar para describir escenas tridimensionales y convertirlas en imágenes digitales fotos realistas. Terminator 2 fue estrenada en 1991 e impuso un nuevo estándar para los efectos con imágenes generadas por computadora (CGI).


 El verano de 1994 trajo toda una gama de películas llenas de gráficos por computadora. Algunos efectos sin embargo, eran tan fotorealistas que el uso de la computadora era indetectable.

   En 1995 se presentó la primera película de larga duración con gráficos y animaciones 3D por computadora. La película realizada por Pixar fue llamada Toy  Story.

   1995 Sony lanzó al mercado mundial su consola de juegos Playstation. Hasta entonces las llamadas consolas de videojuegos solamente podían manejar gráficos 2D, pero el Playstation contenía un chip (además del CPU) de 3D acelerado por hardware capaz de dibujar 360,000 polígonos por segundo.
1996 Quake de ID Software. 3D acelerado por hardware se convirtió en la frase de moda y al menos dos fabricantes sacaron al mercado aceleradores gráficos para PC (Diamond Edge de Diamond Multimedia usando el procesador NV1 de nVidia, y Virge de S3).

   En 1997 la industria de los videojuegos experimentó de nuevo una revolución, esta vez fue el acelerador 3DFX Voodoo 3D. Este chip 3D aplastó por completo a la competencia con su increíble y extremadamente práctico desempeño en 3D

   La GeForce (nombre código nv10) fue la primera tarjeta 3D que poseía un motor de hardware llamado Transform & Lighting. Ninguno de los títulos lanzados en 1999 soportaba esta opción con la excepción de Quake III, el cual salió a la venta en diciembre.

     El año 2000 fue realmente “el año de nVidia“. En el 2001 nVidia continuó dominando el mercado con una competencia ocasional por parte de ATI.

  Nintendo lanzó el Gamecube en septiembre de 2001, al igual que el Gameboy Advance. Pero probablemente el gran evento del 2001 fue el lanzamiento de la consola Xbox de Microsoft.

     Empezando los 2000 el mundo de la cinematografia al igual que los videojuegos se vio beneficiada con todos estos avances, al lanzar películas generadas en su mayoría en computadora como lo son:        

    • Jurassic Park
    • A.I.
    • Terminator 2
    • Lord of The Rings
    • X-Men
    • Matrix
     El 2004 fue un buen año para los videojuegos. Algunos de los juegos que aparecieron ese año como FarCry de Ubisoft y Doom 3, primeros juegos en utilizar Direct X 9.0.

     Para la película Spider-Man 3 de 2007 Sony Pictures Imageworks (SPI) usó el software Autodesk Maya para la animación en 3D, el modelado, texturizado y combinación de movimientos de los personajes y efectos visuales aproximadamente en 80% de las tomas realizadas por el estudio. Se usó el sistema de efectos visuales Autodesk Flame para hacer cambios en el rostro de los personajes y para integrar tomas reales de ellos en ambientes generados totalmente por computadora.



GLOSARIO


Renderizar. La renderización es el proceso de generar una imagen (imagen en 3D o una animación en 3D) a partir de un modelo, usando una aplicación de computadora. Se utiliza en la producción de imágenes en 3D para juegos, diseño computacional, efectos especiales del cine y la TV, etc.

Render. Dibujar, crear en forma automática una imagen de acuerdo al modelo tridimensional que existe en el ordenador.

API. interfaz de programación de aplicaciones o API (Application Programming Interface) conjunto de funciones y procedimientos (o métodos, en la programación orientada a objetos) que ofrece cierta biblioteca para ser utilizado por otro software como una capa de abstracción. Son usadas generalmente en las bibliotecas (también denominadas comúnmente "librerías"). Servicios o funciones que el Sistema Operativo ofrece al programador, como por ejemplo, imprimir un caracter en pantalla, leer el teclado, escribir en un fichero de disco, etc.

DirectX. Colección de API desarrolladas para facilitar las complejas tareas relacionadas con multimedia, especialmente programación de juegos y vídeo, en la plataforma Microsoft Windows

Consta de las siguientes API:
  • Direct3D
  • Direct Graphics
  • DirectInput
  • DirectPlay
  • DirectSound
  • DirectMusic
  • DirectShow
  • DirectSetup
  • DirectCompute

Lens Flare. Pueden ser causa de confusión en usuarios novatos, ya que se presentan como pequeños círculos u óvalos de colores a lo largo de la imagen sin tener una razón aparente para su existencia. Es producido cuando algún rayo de luz de una fuente muy potente llega a la lente y se cuela a través de esta. La fuente usual es el sol, pero también puede ser producido por cualquier fuente artificial como luces, lamparas y flashes. Este rayo de luz “intruso” se refleja y rebota dentro de las imperfecciones de la lente creando dos tipos de manifestaciones: en primer lugar se muestra como una bruma, que lava los colores y reduce la saturación de estos, y en segundo lugar como los pequeños círculos

domingo, 21 de agosto de 2011

Resumen

1950

La primera computadora que utilizó un CRT como dispositivo de visualización fueWhirlw ind, construida en el MIT (Instituto Tecnológico de Massachussets) para simular vuelos de entrenamiento de los escuadrones de bombarderos de la marina de Estados Unidos.

 1952

El primer videojuego de la historia fue creado, con el nombre de OXO. Fue producto de la tesis doctoral de Alexander Sandy Douglas en la Universidad de Cambridge para demostrar la interactividad entre computadoras y seres humanos. El juego era una versión del conocido “tres en raya” y fue escrito para la computadora EDSAC.

1961

Un estudiante del MIT, Steve Russell dirigió un equipo que creó el primer videojuego interactivo de naves espaciales. Le tomó al equipo cerca de 200 horas- hombre escribir la primera versión deSpacewar. El juego se escribió en una PDP- 1 que fue una donación de DEC al MIT esperando que en el MIT se pudiera hacer algo trascendente con su producto.

 1963

Se creo el primer sistema que permitía la manipulación directa de objetos gráficos y fue el precursor de los sistemas modernos de gráficos por computadora y los programas de diseño asistido por computadora (CAD). El sistema, creado para aplicaciones de diseño e ingeniería fue desarrollado porIvan

1965

En el ámbito del hardware, los CRT utilizados hasta entonces podían trazar líneas rectas entre dos puntos en la pantalla, pero ya que las líneas dibujadas se desvanecían en la pantalla, era necesario redibujarlas varias veces por segundo, lo que solo era posible por medio de dispositivos muy costosos de hardware. Estos dispositivos se denominaban pantallas de vector, de trazo o caligráficas.


1966

Sutherland, ejerciendo como profesor en Harvard, junto con Bob Sproull fue el primero en implementar un sistema de realidad virtual, a través del cual, con la ayuda de un casco, los usuarios podían ingresar virtualmente en una habitación y mirar en todas direcciones una vez adentro.


1968

Tektronix introdujo un CRT con tubo de almacenamiento que permitía retener permanentemente un dibujo hasta que el usuario decidiera borrarlo. Este sistema eliminó la necesidad de utilizar costosos sistemas especiales de hardware y memoria para redibujado.


1970

El mayor de los primeros avances en gráficos por computadora tridimensionales fue creado, el algoritmo de superficie oculta. Para dibujar la representación tridimensional de un objeto en la pantalla, la computadora debe determinar cuales superficies están “detrás” del objeto desde la perspectiva del observador, y de ese modo serían “escondidas” cuando la computadora crea (o renderiza) la imagen.

Se comenzaron a introducir los gráficos por computadora en el mundo de la televisión. Computer Image Corporation (CIC) desarrollo sistemas complejos de hardware y software como ANIMAC, SCANIMATE y CAESAR.


1971

Uno de los mas importantes avances para los gráficos por computadora apareció en escena, el microprocesador.

Nolan Kay Bushnell junto con un amigo creo el Atari. Después de esto comenzó el desarrollo de un videojuego de arcadia llamadoPong, que se conoció en 1972 y comenzó una industria que continúa siendo hasta hoy una de las que mayor uso hace de los gráficos por computadora.


1980

En la conferencia SIGGRAPH de 1980 fue mostrada una impactante película titulada “Vol Libre”. Se trataba de un vuelo de alta velocidad a través de montañas fractales generadas por computadora.


1986

Se formó Pixar cuando la división de gráficos por computadora de Lucasfilm fue adquirida por Steven Jobs. El equipo pionero de la compañía formado por John Lasseter, Ed Catmull y Ralph Guggenheim produjo el famoso software Renderman.

1994

El verano de 1994 trajo toda una gama de películas llenas de gráficos por computadora. Algunos efectos sin embargo, eran tan foto realistas que el uso de la computadora era indetectable.


1995

Se presentó la primera película de larga duración con gráficos y animaciones 3D por computadora. La película realizada por Pixar fue llamada Toy Story. La película no presentó mejoras revolucionarias, sin embargo solo por ser una película de larga duración tuvo un gran impacto en la manera en que la gente percibía los gráficos por computadora.

Sony lanzó al mercado mundial su consola de juegos Playstation. Hasta entonces las llamadas consolas de videojuegos solamente podían manejar gráficos 2D, pero el Playstation contenía un chip (además del CPU) de 3D acelerado por hardware capaz de dibujar 360,000 polígonos por segundo.


1996

La industria de los videojuegos experimentó un gran avance en los gráficos 3D con la salida deQuake de ID Software. 3D acelerado por hardware se convirtió en la frase de moda y al menos dos fabricantes sacaron al mercado aceleradores gráficos para PC (Diamond Edge de Diamond Multimedia usando el procesador NV1 de nVidia, y Virge de S3). Sin embargo los aceleradores de esta primera generación fueron prácticamente inútiles.Quake nunca los requirió y aún cuando los usara, los aceleradores ofrecían un pobre desempeño.


1997

La industria de los videojuegos experimentó de nuevo una revolución, esta vez fue el acelerador 3DFX Voodoo 3D. Este chip 3D aplastó por completo a la competencia con su increíble y extremadamente práctico desempeño en 3D.


1999

Fue probablemente el año más excitante para los videojugadores de todo el mundo. nVidia finalmente logró superar el desempeño de 3DFX en la batalla de los chips 3D con su procesador TNT2. Ni siquiera la Voodoo 3 podría igualar al chip TNT2 (y TNT2 Ultra). Pero nVidia no se detuvo ahí. En octubre sacaron a la venta el primer GPU (Unidad Gráfica de Procesamiento) para consumidor del mundo, laGeForce256. La GeForce (nombre código nv10) fue la primera tarjeta 3D que poseía un motor de hardware llamado Transform & Lighting. Ninguno de los títulos lanzados en 1999 soportaba esta opción con la excepción de Quake III, el cual salió a la venta en diciembre. La GeForce 256 podía renderizar triángulos con soporte de T&L en hardware, todo esto capaz de trabajar en conjunto con un rendimiento igual o mayor a 10 millones de polígonos por segundo.

2001

Nintendo lanzó elGamecube en septiembre de 2001, al igual que elGameboy Advance. Pero probablemente el gran evento del 2001 fue el lanzamiento de la consolaXbox deMicrosoft. Con un procesador gráfico desarrollado por nVidia, disco duro, CPU Intel y más, fue diseñada para ganarles a sus principales competidores que serían el Playstation 2 y el Gamecube de Nintendo. El alguna vez tan influyente SEGA había dejado el negocio del hardware y ahora se concentraba en el software.

El mundo de la cinematografía también se vio beneficiado con estos avances y se puede ver en películas como Final Fantasy: The Spirits Within, tal vez el primer intento verdadero por crear humanos realistas en una película completamente generada por computadora.


2003

Aparecieron varias secuelas cinematográficas con grandes efectos especiales. X-Men 2, Matrix 2 y Terminator 3 son solo algunos ejemplos.Matrix Revolutions presentó una gran cantidad de asombrosos efectos especiales.

2007

Para la películaSpider-Man 3 de 2007 Sony Pictures Imageworks (SPI) usó el software Autodesk Maya para la animación en 3D, el modelado, texturizado y combinación de movimientos de los personajes y efectos visuales aproximadamente en 80% de las tomas realizadas por el estudio.