Boas vindas

Os Tamborins Estão Tocando!

Caro visitante,  Estamos finalmente, com uma reformulação do blog em curso! Depois de quatro anos, com mudança de gerenciador e remane...

Estudo e Experimentação de Animação Baseada em Comportamento

  

Dissertação de Mestrado
(indexado pela 1a. vez em 11/10/2011)


Autor(a): Marcelo Cohen
InstituiçãoUniversidade Federal do Rio Grande do Sul - UFRG. Instituto de Informática
ProgramaCurso de Pós-Graduação em Ciência da Computação
Orientador(a): Flavio Rech Wagner, Carla Maria Dal Sasso Freitas (co-orientadora)
Ano: 1996
PaísBrasil.

Resumo

A descrição de animação modelada sempre foi motivo de pesquisa na área de Computação Gráfica. Visando simplificar a especificação do movimento, diversas técnicas surgiram: animação por quadros-chave, algorítmica (ou procedimental), baseada em distorções dos objetos e baseada em comportamento, entre outras. Este trabalho apresenta uma nova abordagem para a obtenção de animação, mais especificamente, animação modelada pela definição de comportamento, na qual a ideia básica é que o usuário não deve ter o controle total e absoluto sobre todas as ações dos atores, mas sim deve ter uma noção de como a seqüência deve se desenvolver. Esta abordagem desenvolveu-se a partir de um estudo realizado das principais técnicas existentes para a obtenção desse tipo de animação, procurando reconhecer as características positives de cada uma, a fim de tentar reuni-las em uma abordagem Única. Foram estudadas as seguintes abordagens: caminhos pré-definidos, sensor-effector, regras de comportamento, algoritmos genéticos e relações. No sentido de facilitar ao máximo esta especificação, surgiu outro objetivo importante para o trabalho: a criação de um protótipo, o qual deveria possuir uma interface gráfica, buscando automatizar e simplificar as operações necessárias definição das animações. O desenvolvimento deste protótipo serviu como meio para validar a abordagem, provando que esta pode ser efetivamente utilizada para a criação de seqüências animadas, com algumas limitações impostas por sua própria natureza. O protótipo permite a definição de animações de uma forma totalmente interativa, facilitando a descrição de comportamentos e a manipulação dos atores em uma cena. Possui ainda ulna função de pré-visualização, para visualizar as animações rapidamente e funções para gravação dos quadros individuais.

Palavras-chaveAnimação, Computação gráfica, Comportamento.
 

Abstract

The description of modeled animation had always been a research subject in Computer Graphics. To make the movement description easier, some methods then have appeared: keyframing, algorythmic animation, physically-based, based in object distortion, based in behavior description, among others. This work presents a new approach to obtain computer animation, specifically, behavioral modelled animation, where the main idea is that the user shouldn't have total control about all actors' actions, but only a notion on how the sequence should look like. This approach was developed from a study of the present research in behavioral animation, trying to recognize the good points of each method and join them in a single approach. The following methods were studied: predefined paths, sensor-effector, behavior rules, genetic algorithms and relations. In the sense to ease at the most this specification, another goal showed up: the creation of a prototype, which should have a graphical interface, looking for the automatization and simplification of the needed operations for sequence definition. The development of this prototype served as a means to validate the new approach, proving that it can be used for the creation of animated sequences, with some limitations imposed by its own features. The prototype allows the definition of animations in a fully interactive way, easing behavior description and actor manipulation in a scene. There is a preview function, to watch animations quickly and easily. Also are provided functions for saving individual frames.

KeywordAnimation, Behavior, Computer graphics.

Para o texto completo, clique aqui!