DOI QR코드

DOI QR Code

Target/non-target classification using active sonar spectrogram image and CNN

능동소나 스펙트로그램 이미지와 CNN을 사용한 표적/비표적 식별

  • Kim, Dong-Wook (School of Electronics Engineering, Kyungpook National University) ;
  • Seok, Jong-Won (Dept. of Information & Communication Eng., Changwon National University) ;
  • Bae, Keun-Sung (School of Electronics Engineering, Kyungpook National University)
  • Received : 2018.12.07
  • Accepted : 2018.12.24
  • Published : 2018.12.31

Abstract

CNN (Convolutional Neural Networks) is a neural network that models animal visual information processing. And it shows good performance in various fields. In this paper, we use CNN to classify target and non-target data by analyzing the spectrogram of active sonar signal. The data were divided into 8 classes according to the ratios containing the targets and used for learning CNN. The spectrogram of the signal is divided into frames and used as inputs. As a result, it was possible to classify the target and non-target using the characteristic that the classification results of the seven classes corresponding to the target signal sequentially appear only at the position of the target signal.

CNN(Convolutional Neural Networks)은 동물의 시각정보처리과정을 모델링한 신경망으로 다양한 분야에서 좋은 성능을 보여주고 있다. 본 논문에서는 CNN을 사용하여 능동소나 신호의 스펙트로그램을 분석하고, 표적과 비표적을 식별하는 연구를 수행하였다. 데이터를 표적이 포함된 비율에 따라 8클래스로 구분하고, CNN의 학습에 사용하였다. 신호의 스펙트로그램을 프레임별로 나누어 입력으로 사용한 결과, 표적신호의 위치에서만 표적신호에 해당하는 7개 클래스의 식별 결과가 순차적으로 나타나는 특성을 사용하여 표적과 비표적을 식별해낼 수 있었다.

Keywords

JGGJB@_2018_v22n4_1044_f0001.png 이미지

Fig. 1. Example of CNN architecture. 그림 1. CNN구조의 예

JGGJB@_2018_v22n4_1044_f0002.png 이미지

Fig. 2. Spectrogram and gray image of active sonar signal. 그림 2. 능동소나 신호의 스펙트로그램과 이미지화 결과

JGGJB@_2018_v22n4_1044_f0003.png 이미지

Fig. 3. Data generation using data augmentation. 그림 3. 데이터확장을 적용한 데이터 생성

JGGJB@_2018_v22n4_1044_f0004.png 이미지

Fig. 4. Endpoint to define the ratio of inclusion of the target. 그림 4. 표적을 포함하는 비율을 정의하기 위한 끝점

JGGJB@_2018_v22n4_1044_f0005.png 이미지

Fig. 5. CNN model using experiment. 그림 5. 실험에 사용된 CNN 모델

JGGJB@_2018_v22n4_1044_f0006.png 이미지

Fig. 6. Error rate depending on learning epochs. 그림 6. 학습 횟수에 따른 오류율

JGGJB@_2018_v22n4_1044_f0007.png 이미지

Fig. 7. Classification results of spectrogram image. (a) Examples in which a small number of misclassified data are observed. (b) Examples in which many number of misclassified data are observed. 그림 7. 스펙트로그램이미지 식별 결과 (a) 소수의 오분류 데이터가 관측된 예 (b) 다수의 오분류 데이터가 관측된 예

Table 1. Classes according to the ratio of the target. 표 1. 표적의 비율에 따른 클래스

JGGJB@_2018_v22n4_1044_t0001.png 이미지

Table 2. Result of classification experiment. 표 2. 식별실험 결과

JGGJB@_2018_v22n4_1044_t0002.png 이미지

Table 3. Colors for classification. 표 3. 클래스를 구분하기 위한 색

JGGJB@_2018_v22n4_1044_t0003.png 이미지

References

  1. P. R. Runkle, P. K. Bharadwaj, L. Couchman, and L. Carin, "Hidden Markov models for multiaspect target classification," IEEE Transactions on Signal Processing, vol.47, no.7, pp.2035-2040, 1999. DOI:10.1109/78.771050
  2. M. R. Azimi-Sadjadi, D. Yao, Q. Huang, and G. J. Dobeck, "Underwater Target Classification Using Wavelet Packets and Neural Networks," IEEE Transactions on Neural Networks, vol.11, no.3, pp.784-794, 2000. DOI:10.1109/72.846748
  3. J. Seok and K. Bae, "Target Classification Using Features Based on Fractional Fourier Transform," IEICE Transactions on Information and Systems, vol.E97.D, no.9, pp.2518-2521, 2014. DOI:10.1587/transinf.2014EDL8003
  4. Y. LeCun, Y. Bengio, and G. Hinton, "Deep learning," Nature 521.7553, pp.436-444, 2015. https://doi.org/10.1038/nature14539
  5. J. Schmidhuber. "Deep learning in neural networks: An overview," Neural networks, Vol.61, pp.85-117, 2015. DOI:10.1016/j.neunet.2014.09.003
  6. Y. LeCun, L. Bottou, Y. Bengio, and P. Haffner, "Gradient-based learning applied to document recognition," Proceedings of the IEEE, vol.86, vol.11, pp.2278-2324, 1998. DOI:10.1109/5.726791
  7. A. Krizhevsky, l. Sutskever, and GE. Hiton, "Imagenet classification with deep convolutional neural networks," Advances in neural information processing systems, pp.1097-1105, 2012.
  8. R. C. Gonzalez, and R. E. Woods, Digital image processing, 4th ed. Upper Saddle River, NJ: Prentice Hall, 2010.
  9. F. Li, and A. Karpathy, "Convolutional neural networks," http://cs231n.github.io/convolutional-networks/
  10. D. Kim, J. Seok and K. Bae, "Active Sonar Target/Non-target Classification using Convolutional Neural Networks," Journal of Korea Multimedia Society, Vol.21, No.9, pp.1062-1067, 2018. DOI:10.6109/jkiice.2017.21.10.1909
  11. V. Nair and G. E. Hinton, "Rectified Linear Units Improve Restricted Boltzmann Machines," Proceedings of the 27th International Conference on Machine Learning, pp.807-814, 2010.
  12. N. Srivastava, G. Hinton, and A. Krizhevsky, "Dropout: A Simple Way to Prevent Neural Networks from Overfitting," The Journal of Machine Learning Research, vol.15, no.1, pp.1929-1958, 2014.