Ayuda
Ir al contenido

Dialnet


Resumen de Sistemas de clasificación de blancos radar mediante métodos estadísticos y de inteligencia artificial

Roberto Gil Pita

  • español

    En esta tesis se han abordado diferentes aspectos de la clasificación de blancos usando señales radar de alta resolución en distancia, Se han llevado a cabo estudios estadísticos sobre el ruido de la señal HRR, que han permitido un desarrollo teórico-práctico en diferentes fases del problema. Se han propuesto muchas técnicas para mejorar las prestaciones de los diferentes algoritmos implementados en cada fase del proceso de clasificación.

    En una primera fase se ha llevado a cabo un análisis de diferentes métodos de alineamientos de las señales HRR: el método de alineamiento basado en la posición del máximo, el método de fase cero y el método de la correlación cruzada. Este análisis ha puesto de manifiesto la importancia de esta tarea en el funcionamiento final del clasificador. Como un resultado derivado del análisis, se han propuesto algunos métodos de alineamiento que mejoran en algún sentido los resultados obtenidos por estos métodos: un nuevo método basado en la correlación que reduce la complejidad computacional del método completo, un nuevo método basado en el de fase cero que reduce su sensibilidad con la SNR y un nuevo método mixto que combina el método de la posición del máximo y el método de fase cero, permitiendo bajas tasas de error en la clasificación .

    Una vez que las señales HRR han sido alineadas, deben ser preprocesadas. Hemos estudiado los métodos más usuales, como la normalización, la gausianización y la selección de características del vector de entrada. Para la normalización, hemos considerado la normalización en energía y la normalización con respecto al máximo valor. En el caso de la guasianización, hemos estudiado la transformación Box-Cox de los datos. Finalmente, en la selección de características, se ha considerado el criterio de Fisher. Se han llevado a cabo estudios teóricos y prácticos para seleccionar las mejores opciones dentro de cada método y los parámetros asociados a cada caso.

    Sobre los métodos de clasificación, en esta tesis se han estudiado dos grandes grupos de clasificadores: los clasificadores estadísticos, con el método KNN y el criterio MAP usando estimaciones de las funciones de densidad de probabilidad, y métodos de inteligencia artificial, como los perceptrones multicapa, las redes de funciones de base radial, o las máquinas de vectores soporte.

    En el capítulo dedicado a los métodos estadísticos, se han llevado a cabo un estudio de varias alternativas para la estimación de la función de densidad de probabilidad, con especial atención a la selección del parámetro de suavizado de la matriz de covarianza. Usando los modelos de ruido descritos en los capítulos previos, se han propuesto la limitación del valor mínimo de la varianza para mejora las estimaciones de la matriz de covarianza.

    El otro grupo de métodos estadísticos considerados en la tesis en el método KNN. A lo largo de la tesis, el método KNN se ha usado como referencia, para medir la calidad de los métodos y técnicas de preprocesado y para comparar los resultados de los otros clasificadores estudiados. Por otro lado, usando las características de las señales HRR descritas en los capítulos previos, hemos estudiado el uso de métrica novedosas, para reducir la tasa de error, las cuales consideran la distancia euclídea con algunos posibles desplazamientos circulares de la señal de entrada. El principal problema asociado al uso del método KNN es el alto coste computacional. Se ha estudiado el método CALESA que reduce la complejidad computacional del método Knn manteniendo la tasa de error. Se ha propuesto también un método nuevo que mejora al algoritmo CALESA en términos de complejidad computacional.

    Se ha prestado atención especial al uso de redes neuronales, realizando análisis teóricos y prácticos de tres tipos de redes: perceptrones multicapa, redes de funciones de base radial y máquinas de vectores soporte.

    En el capítulo dedicado a los perceptrones multicapa, se ha obtenido la expresión aproximada por la red cuando se entrena para minimizar dos funciones de error, cuando el conjunto de entrenamiento está formado por un número alto de patrones de entrenamiento independientes. Se han estudiado como funciones de error, el error cuadrático medio y el error de El-Jaroude-Makhoul, y diferentes métodos de entrenamiento, como el método del gradiente, métodos de Gauss. Newton y el uso de regularización bayesiana. También se ha propuesto un método de generalización novedoso basado en el uso de conjuntos agrandados de entrenamiento, generados a partir de las estimaciones de las funciones de densidad de probabilidad. Estos conjuntos de entrenamiento agrandados no contienen más información que los datos originales, pero los perceptrones milticapa con estos conjuntos agrandados sintéticamente generalizan bastante bien su funcionamiento a conjuntos de test no presentados durante el entrenamiento. Los resultados obtenidos demuestran la capacidad de generalización , que mejoran los resultados obtenido con redes entrenadas con técnica de regularización bayesiana. Los perceptrones multicapa entrenados con los conjuntos agrandados obtienen tasas de error muy bajas, con una complejidad computacional muy reducida.

    Por lo que respecta a las redes de funciones de base radial y las máquinas de vectores soporte, se ha llevado a cabo un interesante análisis teórico en el que demostramos que el uso de la función objetivo clásica de las máquinas de vectores soporte es equivalente al uso de la función de error cuadrático medio, con la restricción de que el valor de la suma de los pesos para que valga cero. Se han llevado a cabo experimentos que demuestran este hecho.

  • English

    In this thesis we have studied many different issues of radar target classification using high range resolution radar signals. Statistical studies of the noise in the HRR radar signal have been carried out, allowing us to make a theoretical-practical development of the different stages of the problem. Many techniques have been proposed in order to improve the performance of the different algorithms implemented in each stage of the classification process.

    So, in a first stage we have carried out the analysis of different strategies to align HRR signals: the maximum position alignment method, the zero phase method and the cross correlationbased alignment method. This analysis has highlighted the importance this task has in the final performance of the classifier. As a derived result of the study, some alignment methods have been proposed, which improve in some sense the results obtained by the studied alignment methods: a new correlation based method that reduces the computational complexity of the complete cross correlation method, a new zero phase based method that reduces the sensibility of the performance with the SNR, and a new mixed method that combines the maximum position method and the zero phase method, which achieves low error rates in the classification stage.

    Once the HRR signals are aligned, they must be preprocessed in order to prepare the data for the classifier. We have studied the most usual preprocessing methods, like normalization, gaussianization, and feature selection. For normalization, we have considered the energy normalization and the normalization with respect to the maximum value. In the case of gaussianization, we have studied the Box-Cox transformation of the data. At last, relative to feature selection, we have considered the Fisher criterion. Both theoretical and practical studies have been carried out for each preprocessing stage, in order to select the best choice of the method and the parameters in each case.

    Concerning classification methods, in this thesis we have studied two big groups of classifiers:

    statistical classifiers, like the kNN based classifier or the MAP criterion using estimations of the PDFs, and artificial intelligence based classifiers, like multilayer perceptrons, radial basis function networks, or support vector machines.

    In the chapter devoted to statistical classifiers, we have carried out a study of several PDF estimation methods, with special attention to the selection of the covariance matrixes and smoothing arameters. Using noise models described in previous chapters, different novel strategies to improve this estimations have been carried out, proposing to limit the minimum value of the variance in the estimations of the covariance matrixes.

    The other group of statistical techniques considered in this thesis is the kNN based classifiers. Along this thesis, the kNN method has been used as reference. Otherwise, using the characteristics of the HRR signals described in previous chapters, we have studied the use of different novel metrics, in order to reduce the error rate, considering the Euclidean distance with some possible circular shifts of the input signal. The main problem associated to the use of the kNN method is the high computational cost. We have studied the use of the kLAESA method, that reduces the computational complexity of the kNN method while maintaining the error rate, and we have proposed a novel method, that improves the performance of the kLAESA algorithm, in terms of computational complexity. We paid special attention to the use of neural networks, making both theoretical and practical analysis about three different types of networks: multilayer perceptrons, radial basis function networks, and support vector machines.

    In the chapter devoted to the use of multilayer perceptrons, we present a theoretical study of the function approximated by the network when the size of the training set tends to infinite. We studied the practical use of different objective functions, like the mean square error or the El-Jaroudi-Makhoul error, and different training methods, like gradient descent, the LevenbergMardquardt method and the use of Bayesian regularization. A novel generalization method has been proposed too, based on the use of an enlarged training set, generated using the estimations of the PDFs studied in previous chapters. These enlarged training sets does not contain more information than the original training data, but multilayer perceptrons trained with this enlarged sets generalize quite well over the original test set, which is not used during training. Obtained results show that generalization capabilities obtained by the proposed method outperforms other classical regularization techniques, like Bayesian regularization. The MLPs trained with the enlarged training sets obtained quite low error rates, with a very reduced computational complexity.

    Concerning RBFNs and SVMs, we carried out an interesting theoretical analysis in which we demonstrate that the use of the classical objective function of SVMs is equivalent to the use of the mean square error function constrained to the sum of the weights being equal to 0. We carried out experiments that demonstrated this theoretical result.


Fundación Dialnet

Dialnet Plus

  • Más información sobre Dialnet Plus