Trabalho de Conclusão de Curso
Nome: José Franco Neto
Instituição: UFPB - Universidade Federal da Paraíba
Instituição: UFPB - Universidade Federal da Paraíba
Programa: Bacharelado em Sistema da Informação
Orientador(a): Tiago Maritan U. Araújo
Ano: 2015
Orientador(a): Tiago Maritan U. Araújo
Ano: 2015
País: Brasil
Resumo
Abstract
Resumo
Os surdos passam por vários problemas no que diz respeito ao acesso a informações, principalmente as que circulam nas Tecnologias da Informação e Comunicação (TICs). Essas tecnologias normalmente são projetadas para pessoas que compreendem as línguas orais, ao passo que, para os surdos a língua oral é considerado uma espécie de “segunda língua”. Por outro lado, empresas responsáveis pela disponibilização dessas informações sentem grandes dificuldades em tornar acessível os conteúdos disponibilizados por elas, especialmente porque esses conteúdos são geralmente dinâmicos, e a produção das janelas em línguas de sinais (exemplo, Língua Brasileira de Sinais – LIBRAS) tem usualmente um custo operacional alto. Para minimizar esses problemas, uma alternativa é o uso de tradutores automáticos para línguas de sinais. Com esses tradutores automáticos, é possível gerar conteúdos digitais para Libras de forma dinâmica, com baixo custo, e segundo alguns trabalhos, com um nível de inteligibilidade razoável. Essas soluções, no entanto, geralmente necessitam de uma base de dados (dicionário de LIBRAS) contendo milhares de vídeos ou animações representadas por um avatar animado. O processo de construção dessas bases, no entanto, é um processo trabalhoso, e depende de uma equipe grande e especializada formada por modeladores, animadores e designers 3D, além de especialistas em Libras e usuários surdos. Para minimizar esses problemas, a proposta deste trabalho é desenvolver uma solução para geração semiautomática dessas animações (vídeos). A ideia é que essas animações possam ser criadas por usuários a partir da configuração de parâmetros (fonemas) da Língua Brasileira de Sinais (LIBRAS), reduzindo o tempo e o custo necessário para produzir esse tipo de base de dados.
Abstract
The deaf suffer several problems in regard to access of information, especially those information circulating in Information and Communication Technologies (ICTs). These technologies are usually designed for people who understand the spoken language, whereas for the deaf, the oral language is considered something like a "second language". On the other hand, companies responsible for making such information available feel great difficulty in making accessible the content provided by them, especially since these contents are generally dynamic, and the production of windows in sign languages (eg, Brazilian Sign Language - Libras) has usually a high operating cost. To minimize these problems, an alternative is the use of automatic translators to sign languages. With these automatic translators, it can generate digital content dynamically, with low cost, and according to some studies, with a reasonable standard of intelligibility. These solutions, however, generally require a database (dictionary LBS) containing thousands of videos or animations represented by an animated avatar. The process of building these databases, however, is a arduous process, and depends on a large and specialized team of modelers, animators and 3D designers, as well as experts on sign language and deaf users. To minimize these problems, the purpose of this work is to develop a solution for semi-automatic generation of these animations (movies). The idea is that these animations can be created by users from the parameter setting (phonemes) of the Brazilian Sign Language (Libras), reducing the time and cost required to produce this kind of database.
Palavras-chave: LIBRAS, Animação, Dicionário de LIBRAS, Avatar, Animation, LIBRAS dictionary, TCC.
Para o texto completo, clique aqui!