Para citar este trabalho use um dos padrões abaixo:
A strategy employing image processing is applied to estimate the drone position for autonomous navigation: visual odometry, and computer vision. The computer vision approach is based on the image edge extraction from satellite and drones images. An image correlation is applied for matching objects in a georeferenced satellite optical image and an aerial image obtained from the drone camera. The edge detection step is computed by the multi-layer perceptron neural network. Results obtained by the neural network are implemented on FPGA. Data fusion combining the drone position estimation obtained by visual odometry and computer vision is computed by using the non-extensive particle filter (NExt-PF). The NExt-PF is designed with the likelihood operator using the Tsallis' probability distribution. Our approach shows better results than stantard particle filter (Gaussian likelihood), and a better performance was obtained with FPGA.
Com ~200 mil publicações revisadas por pesquisadores do mundo todo, o Galoá impulsiona cientistas na descoberta de pesquisas de ponta por meio de nossa plataforma indexada.
Confira nossos produtos e como podemos ajudá-lo a dar mais alcance para sua pesquisa:
Esse proceedings é identificado por um DOI , para usar em citações ou referências bibliográficas. Atenção: este não é um DOI para o jornal e, como tal, não pode ser usado em Lattes para identificar um trabalho específico.
Verifique o link "Como citar" na página do trabalho, para ver como citar corretamente o artigo