• 제목/요약/키워드: interpolation algorithm

검색결과 853건 처리시간 0.021초

잡견 간흡충증의 전산화단층촬영과 자기공명영상의 유용성에 관한 실험적 연구 (Usefulness Comparative Experimental Study of the CT and MR Imaging in the Dog Clonorchiasis)

  • 구은희;권대철;김동성;최천규
    • 대한방사선기술학회지:방사선기술과학
    • /
    • 제26권3호
    • /
    • pp.33-39
    • /
    • 2003
  • 잡견의 간흡충증에서 조영기법의 역동적 CT 영상과 MIP 기법을 적용한 자기공명 영상의 질을 비교하여 임상적 적용 가능성을 알아보고자 하였다. 20마리의 잡견(평균 20kg)에 실험적으로 간흡충증을 유발한 후 13주 동안에 간을 중심으로 CT 영상과 MR 영상을 얻었다. CT는 이중나선식방법으로 영상을 획득하였고, bolustracking 방법으로 조영제를 주입하여 arterial phase는 5초 후에 정맥기는 동맥기 scan후 15초에 시작하여 single dynamic scan을 하고, 데이터를 다 단면 영상을 얻기 위해 MnP로 재구성을 하였다. MR 영상은 circularly polarized phased away body coil을 사용하였고, HASTE, FLASH, TSE 기법을 이용하여 모두 2차원 영상을 얻었다. HASTE와 TSE는 해상력을 증가시키기 위하여 interpolation과 지방소거기법을 적용하였다. 데이터를 획득하는 방식으로는 담관을 중심으로 3방향으로 수집한 다음 최대강도투사법으로 재구성하였다. CT와 MR 영상의 평가 방법으로서는 간내담관의 확장, 동맥기에 담관벽의 조영증강, 담관 말단부의 확장, 간의 실질조직묘사, 배경유무를 기점으로 병리학과 의사 1명과 방사선과 의사 3명, 방사선사 5명이 시각적으로 평가를 하였다. MR 영상의 경우 sequence 비교를 위해 정량적분석방법인 CNR과 CR로 평가를 하였다. 감염 후 5마리의 잡견은 죽었으며, 15마리 잡견에서 CT와 MR 검사에서 간내 담관의 만성 확장을 보여 주었다. 조영증강기법인 CT 영상에서는 간 실질조직을 비롯하여 담관벽의 조영증강이 보였고, MR 영상에서는 간내담관 형태와 담관의 말단부의 확장이 MIP 기법을 이용하여 3차원적으로 관찰되었고, CNR과 CR 값이 HASTE($16{\pm}0.83$, 73.3%), TSE($7.06{\pm}3.0$, 62.3%), FLASH($1.19{\pm}0.2$, 6.4%) 순으로 나타났다. CT와 MR 영상은 짧은 검사기법과 다양한 검사기법을 포함하고 있어 간흡충증을 영상화하는데 있어서 진단적 가치가 있다. CT와 MR 영상 검사의 장 단점을 서로 보안하여 검사를 시행한다면 높은 임상적 적용 가능성이 있다.

  • PDF

실시간 렌더링 환경에서의 3D 텍스처를 활용한 GPU 기반 동적 포인트 라이트 파티클 구현 (GPU-based dynamic point light particles rendering using 3D textures for real-time rendering)

  • 김병진;이택희
    • 한국컴퓨터그래픽스학회논문지
    • /
    • 제26권3호
    • /
    • pp.123-131
    • /
    • 2020
  • 본 연구는 10만 개 이상의 움직이는 파티클 각각이 발광원으로서 존재할 때 라이팅을 위한 실시간 렌더링 알고리즘을 제안한다. 각 라이트의 영향 범위를 동적으로 파악하기 위해 2개의 3D 텍스처를 사용하며 첫 번째 텍스처는 라이트 색상 두 번째 텍스처는 라이트 방향 정보를 가진다. 각 프레임마다 두 단계를 거친다. 첫 단계는 Compute shader 기반으로 3D 텍스처 초기화 및 렌더링에 필요한 파티클 정보를 갱신하는 단계이다. 이때 파티클 위치를 3D 텍스처의 샘플링 좌표로 변환 후 이 좌표를 기반으로 첫 번째 3D 텍스처엔 해당 복셀에 대해 영향을 미치는 파티클 라이트들의 색상 총합을, 그리고 두 번째 3D 텍스처에 해당 복셀에서 파티클 라이트들로 향하는 방향벡터들의 총합을 갱신한다. 두 번째 단계는 일반 렌더링 파이프라인을 기반으로 동작한다. 먼저 렌더링 될 폴리곤 위치를 기반으로 첫 번째 단계에서 갱신된 3D 텍스처의 정확한 샘플링 좌표를 계산한다. 샘플링 좌표는 3D 텍스쳐의 크기와 게임 월드의 크기가 1:1로 대응하므로 픽셀의 월드좌표를 그대로 샘플링 좌표로 사용한다. 샘플링한 픽셀의 색상과 라이트의 방향벡터를 기반으로 라이팅 처리를 수행한다. 3D 텍스처가 실제 게임 월드와 1:1로 대응하며 최소 단위를 1m로 가정하는데 1m보다 작은 영역의 경우 해상도 제한에 의한 계단 현상 등의 문제가 발생한다. 이러한 문제를 개선하기 위한 텍스처 샘플링 시 보간 및 슈퍼 샘플링을 수행한다. 한 프레임을 렌더링하는데 소요된 시간을 측정한 결과 파티클이 라이트의 개수가 262144개일 때 Forward Lighting 파이프라인에서 146ms, deferred Lighting 파이프라인에서 46ms 가 소요되었으며, 파티클 라이트의 개수가 1024576개일 때 Forward Lighting 파이프라인에서 214ms, Deferred Lighting 파이프라인에서 104ms 가 소요되었다.

스마트폰 다종 데이터를 활용한 딥러닝 기반의 사용자 동행 상태 인식 (A Deep Learning Based Approach to Recognizing Accompanying Status of Smartphone Users Using Multimodal Data)

  • 김길호;최상우;채문정;박희웅;이재홍;박종헌
    • 지능정보연구
    • /
    • 제25권1호
    • /
    • pp.163-177
    • /
    • 2019
  • 스마트폰이 널리 보급되고 현대인들의 생활 속에 깊이 자리 잡으면서, 스마트폰에서 수집된 다종 데이터를 바탕으로 사용자 개인의 행동을 인식하고자 하는 연구가 활발히 진행되고 있다. 그러나 타인과의 상호작용 행동 인식에 대한 연구는 아직까지 상대적으로 미진하였다. 기존 상호작용 행동 인식 연구에서는 오디오, 블루투스, 와이파이 등의 데이터를 사용하였으나, 이들은 사용자 사생활 침해 가능성이 높으며 단시간 내에 충분한 양의 데이터를 수집하기 어렵다는 한계가 있다. 반면 가속도, 자기장, 자이로스코프 등의 물리 센서의 경우 사생활 침해 가능성이 낮으며 단시간 내에 충분한 양의 데이터를 수집할 수 있다. 본 연구에서는 이러한 점에 주목하여, 스마트폰 상의 다종 물리 센서 데이터만을 활용, 딥러닝 모델에 기반을 둔 사용자의 동행 상태 인식 방법론을 제안한다. 사용자의 동행 여부 및 대화 여부를 분류하는 동행 상태 분류 모델은 컨볼루션 신경망과 장단기 기억 순환 신경망이 혼합된 구조를 지닌다. 먼저 스마트폰의 다종 물리 센서에서 수집한 데이터에 존재하는 타임 스태프의 차이를 상쇄하고, 정규화를 수행하여 시간에 따른 시퀀스 데이터 형태로 변환함으로써 동행 상태분류 모델의 입력 데이터를 생성한다. 이는 컨볼루션 신경망에 입력되며, 데이터의 시간적 국부 의존성이 반영된 요인 지도를 출력한다. 장단기 기억 순환 신경망은 요인 지도를 입력받아 시간에 따른 순차적 연관 관계를 학습하며, 동행 상태 분류를 위한 요인을 추출하고 소프트맥스 분류기에서 이에 기반한 최종적인 분류를 수행한다. 자체 제작한 스마트폰 애플리케이션을 배포하여 실험 데이터를 수집하였으며, 이를 활용하여 제안한 방법론을 평가하였다. 최적의 파라미터를 설정하여 동행 상태 분류 모델을 학습하고 평가한 결과, 동행 여부와 대화 여부를 각각 98.74%, 98.83%의 높은 정확도로 분류하였다.