Exportar registro bibliográfico

Rede neural convolucional e recursiva para a estimação de profundidade de objetos em vídeos (2018)

  • Authors:
  • USP affiliated authors: MOREIRA, PEDRO HENRIQUE DE OLIVEIRA - EP ; ROCHA, VICTOR HUGO NASCIMENTO - EP
  • School: EP
  • Sigla do Departamento: PMR
  • Subjects: VISÃO COMPUTACIONAL; REDES NEURAIS; PROCESSAMENTO DE IMAGENS
  • Language: Português
  • Abstract: A tarefa de estimação de profundidades de objetos em vídeos tem ganhado importância crescente nas pesquisas relacionadas à área de visão computacional, devido às suas diversas aplicações. Muitos métodos utilizando desde visão estéreo até monocular já foram desenvolvidos e testados, mas poucos resultados existem para tratar do uso das relações temporais entre os quadros consecutivos de vídeos. Ao longo deste trabalho, visando utilizar as mencionadas relações temporais, foi desenvolvida e treinaram uma rede neural convolucional, recursiva e siamesa para tratar do problema de estimação da profundidade de quadros de vídeos. Ela é composta por duas sub-redes, a de aproximação inicial e a de refinamento. A primeira tem uma arquitetura convolucional siamesa para extrair informações espaciais do par de imagens estéreo. A segunda utiliza camadas recursivas para relacionar as informações espaciais extraídas anteriormente com sua memória dos quadros precedentes, de forma a montar um mapa de profundidade da imagem. Foram propostas três arquiteturas convolucionais distintas para a sub-rede de aproximação inicial, sendo cada uma baseada em uma rede convolucional consagrada. Foram treinadas versões da sub-rede com as partes convolucionais das redes VGG19, Xception e YOLO. Os resultados das três foram comparados e a arquitetura Xception foi a escolhida. De forma análoga, três arquiteturas recursivas diferentes foram analisadas para a sub-rede de refinamento, sendo elas arquiteturas desenvolvidas pelos autores. Cada arquitetura se baseava no uso de camadas recursivas diferentes, sendo essas recursivas tradicionais, LSTM totalmente conectadas e LSTM convolucionais. Após a comparação dos resultados, a sub-rede recursiva tradicional foi a escolhida. Todas as redes foram treinadas utilizando imagens da base de dados KITTI (GEIGER et al., 2013), organizadas em batches comsequências de quadros consecutivos dos vídeos presentes nessa biblioteca. Os resultados da rede final foram analisados e comparados com a tabela de colocações da base de dados KITTI para previsão de profundidade de imagens, mostrando que a arquitetura desenvolvida obteve ótimos resultados, sendo eles comparáveis e, em alguns pontos, superiores aos melhores colocados. Devido a limitações na capacidade computacional disponível para o treinamento, a rede desenvolvida foi obrigada a operar apenas com tamanhos de imagens muito reduzidos. Mesmo assim, espera-se que o sucesso encontrado no trabalho com imagens pequenas pode ser expandido para imagens maiores e aplicações reais.
  • Imprenta:

  • Download do texto completo

    Tipo Nome Link
    Versão PublicadaPedro Moreira - Victor ro...Direct link
    How to cite
    A citação é gerada automaticamente e pode não estar totalmente de acordo com as normas

    • ABNT

      MOREIRA, Pedro Henrique de Oliveira; ROCHA, Victor Hugo Nascimento; CABRAL, Eduardo Lobo Lustosa. Rede neural convolucional e recursiva para a estimação de profundidade de objetos em vídeos. [S.l: s.n.], 2018.
    • APA

      Moreira, P. H. de O., Rocha, V. H. N., & Cabral, E. L. L. (2018). Rede neural convolucional e recursiva para a estimação de profundidade de objetos em vídeos. São Paulo: EPUSP.
    • NLM

      Moreira PH de O, Rocha VHN, Cabral ELL. Rede neural convolucional e recursiva para a estimação de profundidade de objetos em vídeos. 2018 ;
    • Vancouver

      Moreira PH de O, Rocha VHN, Cabral ELL. Rede neural convolucional e recursiva para a estimação de profundidade de objetos em vídeos. 2018 ;

    Últimas obras dos mesmos autores vinculados com a USP cadastradas na BDPI:

    Digital Library of Academic Works of Universidade de São Paulo     2012 - 2020