Abstract
There are many researches related to a simulated shooting training system for replacing the real military and police shooting training. In this paper, we propose the point of impact from a simulated shooting target based on image processing instead of using a sensor based approach. The point of impact is extracted by analyzing the image extracted from the camera on the muzzle of a gun. The final shooting result is calculated by mapping the target and the coordinates of the point of impact. The recognition system is divided into recognizing the projection zone, extracting the point of impact on the projection zone, and calculating the shooting result from the point of impact. We find the vertices of the projection zone after converting the captured image to the binary image and extract the point of impact in it. We present the extracting process step by step and provide experiments to validate the results. The experiments show that exact vertices of the projection area and the point of impact are found and a conversion result for the final result is shown on the interface.
소모적이고 안전사고에 노출된 실탄 사격을 대체할 수 있는 사격 시뮬레이션 시스템과 관련된 연구가 활발히 진행되고 있다. 본 논문에서는 기존의 센서 기반 기술을 이용한 인식 방법을 사용하지 않고 영상처리기반 기술을 이용하여 탄착점을 추출하는 과정을 제시하였다. 이를 위해 모의총기의 총구에 부착된 카메라로부터 획득한 영상 분석을 통해 탄착점 위치를 찾아내고, 그 탄착점의 좌표 값과 과녁과의 매핑을 통한 최종 사격결과를 계산하여 제공할 수 있도록 한다. 이 시스템은 전송된 영상에서 영사영역을 구분하는 단계, 영사영역 내에서 탄착점 위치를 추출하는 단계, 탄착점 위치에 따른 사격결과를 계산하여 사용자에게 제공하는 단계로 나누어진다. 전송된 영상을 이진 영상으로 변환 후 영사영역의 꼭짓점의 위치를 찾고 그 안에 존재하는 탄착점을 추출한다. 구현된 탄착점 추출과정을 단계별로 제시하였으며 모의 사격 시스템을 위한 인터페이스에서 결과를 확인 할 수 있도록 하였다. 실험을 통해 영사영역의 꼭짓점 위치의 정확성을 확인하였으며 탄착점 추출 및 그에 따른 점수 환산결과를 확인할 수 있도록 하였다.