• 제목/요약/키워드: 3-D coordinates transformation

검색결과 66건 처리시간 0.02초

여자 높이뛰기에서 경기력 간 도움닫기와 발구름 동작의 운동역학적 분석 (The Kinetic Analysis of the Approach and Take-off Motion between Performance in Woman's High Jump)

  • 김영숙;류재균;장재관
    • 한국운동역학회지
    • /
    • 제25권1호
    • /
    • pp.1-10
    • /
    • 2015
  • Objective : The purpose of this study was to find some kinetic variable's relationships between personal records and low records in female high jump. Methods : Collected data of the subjects(N=8, ages: $25.5{\pm}1.85$, height: $173{\pm}5.83$, mass: $54.75{\pm}6.36$ personal record: $1.71{\pm}0.04$, low record: $1.62{\pm}0.03$) were used for the last three strides and take-off phase. Five video cameras set in 30frames/s were used for recording. After digitizing motion, the Direct Linear Transformation(DLT) technique was employed to obtain 3-D position coordinates. The kinematic and kinetic factors of distance, velocity, angle, impulse, jerk variables were calculated. A paired t-test was applied for the difference of variables between personal records and lower records and for correlation with performances and variables. The significance level was accepted at p<.05. Results : There was no relationship between pattern of stride and performance. However, rate of change of velocity was related with cental of mass height(CMH) at peak point(PP). Knee, hip, backward lean, foot plant, approach and take off angle showed no difference between best record and low record. Vertical impulse momentum also showed no difference between performances. Conclusion : According to a t-test result, there were significant differences in CMH at PP and jerk at touch down between best record and low record.

Strip Adjustment of Airborne Laser Scanner Data Using Area-based Surface Matching

  • Lee, Dae Geon;Yoo, Eun Jin;Yom, Jae-Hong;Lee, Dong-Cheon
    • 한국측량학회지
    • /
    • 제32권6호
    • /
    • pp.625-635
    • /
    • 2014
  • Multiple strips are required for large area mapping using ALS (Airborne Laser Scanner) system. LiDAR (Light Detection And Ranging) data collected from the ALS system has discrepancies between strips due to systematic errors of on-board laser scanner and GPS/INS, inaccurate processing of the system calibration as well as boresight misalignments. Such discrepancies deteriorate the overall geometric quality of the end products such as DEM (Digital Elevation Model), building models, and digital maps. Therefore, strip adjustment for minimizing discrepancies between overlapping strips is one of the most essential tasks to create seamless point cloud data. This study implemented area-based matching (ABM) to determine conjugate features for computing 3D transformation parameters. ABM is a well-known method and easily implemented for this purpose. It is obvious that the exact same LiDAR points do not exist in the overlapping strips. Therefore, the term "conjugate point" means that the location of occurring maximum similarity within the overlapping strips. Coordinates of the conjugate locations were determined with sub-pixel accuracy. The major drawbacks of the ABM are sensitive to scale change and rotation. However, there is almost no scale change and the rotation angles are quite small between adjacent strips to apply AMB. Experimental results from this study using both simulated and real datasets demonstrate validity of the proposed scheme.

젖소의 개체인식 및 형상 정보화를 위한 컴퓨터 시각 시스템 개발(II) - 스테레오 영상을 이용한 체위 분석 - (Development of Computer Vision System for Individual Recognition and Feature Information of Cow (II) - Analysis of body parameters using stereo image -)

  • 이종환
    • Journal of Biosystems Engineering
    • /
    • 제28권1호
    • /
    • pp.65-76
    • /
    • 2003
  • The analysis of cow body parameters is important to provide some useful information fur cow management and cow evaluation. Present methods give many stresses to cows because they are invasive and constrain cow postures during measurement of body parameters. This study was conducted to develop the stereo vision system fur non-invasive analysis of cow body features. Body feature parameters of 16 heads at two farms(A, B) were measured using scales and nineteen stereo images of them with walking postures were captured under outdoor illumination. In this study, the camera calibration and inverse perspective transformation technique was established fer the stereo vision system. Two calibration results were presented for farm A and fm B, respectively because setup distances from camera to cow were 510 cm at farm A and 630cm at farm B. Calibration error values fer the stereo vision system were within 2 cm for farm A and less than 4.9 cm for farm B. Eleven feature points of cow body were extracted on stereo images interactively and five assistant points were determined by computer program. 3D world coordinates for these 15 points were calculated by computer program and also used for calculation of cow body parameters such as withers height. pelvic arch height. body length. slope body length. chest depth and chest width. Measured errors for body parameters were less than 10% for most cows. For a few cow. measured errors for slope body length and chest width were more than 10% due to searching errors fer their feature points at inside-body positions. Equation for chest girth estimated by chest depth and chest width was presented. Maximum of estimated error fur chest girth was within 10% of real values and mean value of estimated error was 8.2cm. The analysis of cow body parameters using stereo vision system were successful although body shape on the binocular stereo image was distorted due to cow movements.

GSIS의 자료기반 구축을 위한 SPOT 위성영상으로부터의 수치표고모형 생성 (A Generation of Digital Elevation Model for GSIS using SPOT Satellite Imagery)

  • 유복모;박홍기;정수;김원대
    • 대한공간정보학회지
    • /
    • 제1권1호
    • /
    • pp.141-152
    • /
    • 1993
  • 본 연구에서는 지형공간정보체계의 자료기반의 구축, 수치도면 제작 등 이용도가 확대되고 있는 수치표고모형을 수치위성영상자료를 이용하여 제작하고자 하였다. 위성영상의 공액 상좌표 취득에는 영상정합기법을 도입하였으며 취득된 지상좌표의 정확도를 분석하여 수치표고모형 제작의 연산법을 제시하였다. 위성영상의 외부표정요소는 광속조정법을 이용하여 결정하였고 좌우 수치영상상에서 동일점을 탐색하기 위한 영상정합방법으로는 표준상관기법을 적용하였다. 영상정합기법을 적용에 있어서는 기준영역의 크기를 결정하기 위해 기준영역의 크기를 다양하게 변화시켜 적절한 크기를 결정하고자 하였다. 영상정합의 정확도를 향상시키고 계산속도를 증가시키기 위하여 다양한 좌표변환식을 적용하고 이 결과를 통계학적으로 분석한 후 안전율을 고려하여 탐색영역을 결정하였다. 본 연구에서 제작된 수치표고모형의 정확도는 5000분의 1 지형도상에서 일정한 간격으로 추출하여 제작된 수치표고모형을 이용하였으며, 정확도를 평가한 결과 수치위성영상을 이용한 수치표고모형을 생성하는 연산법을 제시할 수 있었으며, 지형공간정보체계의 자료기반 구축에 필요한 대단위 지역에 대한 수치표고모형의 생성에 수치위성영상을 적용하는 효율적인 방법을 제시할 수 있었다.

  • PDF

GPS에 의한 지적삼각망의 정합성 분석 (Analysis of Conformability for Cadastral Control Network Using GPS Satellite Surveying)

  • 강준묵;윤희천;김홍진
    • 대한공간정보학회지
    • /
    • 제2권1호
    • /
    • pp.121-129
    • /
    • 1994
  • 현재 지적의 기초점으로 사용되고 있는 삼각점들은 오랜시간의 경과와 관리소홀로 망실되거나 이동된 것이 많고 그 성과도 재래적인 방법에 의존하고 있어 이들 성과의 이용에 많은 문제점이 제기되고 있다. 이에 국가적 차원에서 지적 삼각점들에 대한 재정립과 성과의 갱신이 필요하나 기존의 장비와 관련기술 만으로는 전반적인 점검과 조정에 있어 막대한 시간과 경비가 소요되므로 이를 효과적으로 해결할 수 있는 기법에 대한 연구가 요망되고 있다. 본 연구는 단시간내에 높은 정밀도로 3차원 좌표를 결정할 수 있는 GPS를 지적삼각점의 위치결정에 응용하고자 GPS에 의한 지적삼각망의 정합성 분석을 연구한 것이다. 대전시 전역의 16개 지적삼각점을 선정하여 지적삼각망을 구성, 이에 대한 정확도를 분석하였다. 좌표변환방법과 X, Y 망조정 방법에 의한 GPS측량 성과를 지적삼각점의 기존성과와 비교 분석하므로서 지적삼각점 성과에 포함된 과대오차를 검출할 수 있었고 GPS 관측망 형태에 따른 정밀도를 분석하므로서 효율적인 관측망 형태를 제시할 수 있었다. 따라서 GPS를 지적삼각망의 점검과 조정에 효과적으로 적용할 수 있음은 물론, 향후 지적삼각점의 평지화와 신설 등 지적분야에서 GPS의 실용화를 앞당길 수 있을 것으로 기대된다.

  • PDF

딥러닝 기반 윤곽정보 추출자를 활용한 RPC 보정 기술 적용성 분석 (Analysis of Applicability of RPC Correction Using Deep Learning-Based Edge Information Algorithm)

  • 허재원;이창희;서두천;오재홍;이창노;한유경
    • 대한원격탐사학회지
    • /
    • 제40권4호
    • /
    • pp.387-396
    • /
    • 2024
  • 대부분의 고해상도 위성영상은 rational polynomial coefficients (RPC) 정보를 제공하여 지상좌표와 영상좌표 간 변환을 수행한다. 그러나 초기 RPC에는 기하학적 오차가 존재하여 ground control points (GCPs)와의 정합을 통해 보정을 수행하여야 한다. GCP chip은 항공정사영상에서 추출한 높이 정보가 포함된 작은 영상 패치(patch)이다. 많은 선행연구에서는 영역 기반 정합 기법을 사용하여 고해상도 위성영상과 GCP chip 간 정합을 수행하였다. 계절적 차이나 변화된 지역이 존재하는 영상에서는 화소값에 의존하는 정합이 어렵기 때문에 윤곽 정보를 추출하여 정합을 수행하기도 한다. 그러나 일반적으로 사용하는 canny 기법으로 정합에 용이한 윤곽을 추출하기 위해서는 위성영상의 분광 특성에 적절한 임계치를 설정해주어야 하는 문제가 존재한다. 따라서 본 연구에서는 위성영상의 지역별 특성에 둔감한 윤곽 정보를 활용하여 RPC 보정을 위한 정합을 수행하고자 한다. 이를 위해 딥러닝 기반 윤곽 정보 추출 네트워크인 pixel difference network (PiDiNet)를 활용하여 위성영상과 GCP chip의 윤곽맵(edge map)을 각각 생성하였다. 그 후 생성된 윤곽맵을 normalized cross-correlation과 relative edge cross-correlation의 입력데이터로 대체하여 영역 기반의 정합을 수행하였다. 마지막으로 RPC 보정에 필요한 변환모델 계수를 도출하기 위하여 data snooping 기법을 반복적으로 적용하여 참정합쌍을 추출하였다. 오정합쌍을 제거한 참정합쌍에 대해 root mean square error (RMSE)를 도출하고 기존에 사용하던 상관관계 기법과 결과를 정성적으로 비교하였다. 실험 결과, PiDiNet은 약 0.3~0.9 화소의 RMSE 값 분포를 보였으나 canny 기법에 비해 두꺼운 윤곽을 나타내어 일부 영상에서 미세하게 정확도가 저하되는 것을 확인하였다. 그러나 위성영상 내 특징적인 윤곽을 일관적으로 나타냄으로써 정합이 어려운 지역에서도 정합이 잘 수행되는 것을 확인하였다. 본 연구를 통해 윤곽 기반 정합 기법의 강인성을 개선하여 다양한 지역에서의 정합을 수행할 수 있을 것으로 예상된다.