• 제목/요약/키워드: Data normalization

검색결과 488건 처리시간 0.023초

Efficient Semi-automatic Annotation System based on Deep Learning

  • Hyunseok Lee;Hwa Hui Shin;Soohoon Maeng;Dae Gwan Kim;Hyojeong Moon
    • 대한임베디드공학회논문지
    • /
    • 제18권6호
    • /
    • pp.267-275
    • /
    • 2023
  • This paper presents the development of specialized software for annotating volume-of-interest on 18F-FDG PET/CT images with the goal of facilitating the studies and diagnosis of head and neck cancer (HNC). To achieve an efficient annotation process, we employed the SE-Norm-Residual Layer-based U-Net model. This model exhibited outstanding proficiency to segment cancerous regions within 18F-FDG PET/CT scans of HNC cases. Manual annotation function was also integrated, allowing researchers and clinicians to validate and refine annotations based on dataset characteristics. Workspace has a display with fusion of both PET and CT images, providing enhance user convenience through simultaneous visualization. The performance of deeplearning model was validated using a Hecktor 2021 dataset, and subsequently developed semi-automatic annotation functionalities. We began by performing image preprocessing including resampling, normalization, and co-registration, followed by an evaluation of the deep learning model performance. This model was integrated into the software, serving as an initial automatic segmentation step. Users can manually refine pre-segmented regions to correct false positives and false negatives. Annotation images are subsequently saved along with their corresponding 18F-FDG PET/CT fusion images, enabling their application across various domains. In this study, we developed a semi-automatic annotation software designed for efficiently generating annotated lesion images, with applications in HNC research and diagnosis. The findings indicated that this software surpasses conventional tools, particularly in the context of HNC-specific annotation with 18F-FDG PET/CT data. Consequently, developed software offers a robust solution for producing annotated datasets, driving advances in the studies and diagnosis of HNC.

Optimized inverse distance weighted interpolation algorithm for γ radiation field reconstruction

  • Biao Zhang;Jinjia Cao;Shuang Lin;Xiaomeng Li;Yulong Zhang;Xiaochang Zheng;Wei Chen;Yingming Song
    • Nuclear Engineering and Technology
    • /
    • 제56권1호
    • /
    • pp.160-166
    • /
    • 2024
  • The inversion of radiation field distribution is of great significance in the decommissioning sites of nuclear facilities. However, the radiation fields often contain multiple mixtures of radionuclides, making the inversion extremely difficult and posing a huge challenge. Many radiation field reconstruction methods, such as Kriging algorithm and neural network, can not solve this problem perfectly. To address this issue, this paper proposes an optimized inverse distance weighted (IDW) interpolation algorithm for reconstructing the gamma radiation field. The algorithm corrects the difference between the experimental and simulated scenarios, and the data is preprocessed with normalization to improve accuracy. The experiment involves setting up gamma radiation fields of three Co-60 radioactive sources and verifying them by using the optimized IDW algorithm. The results show that the mean absolute percentage error (MAPE) of the reconstruction result obtained by using the optimized IDW algorithm is 16.0%, which is significantly better than the results obtained by using the Kriging method. Importantly, the optimized IDW algorithm is suitable for radiation scenarios with multiple radioactive sources, providing an effective method for obtaining radiation field distribution in nuclear facility decommissioning engineering.

Transcranial Doppler emboli monitoring for stroke prevention after flow diverting stents

  • Matias Costa;Paul Schmitt;Jaleel N;Matias Baldoncini;Juan Vivanco-Suarez;Bipin Chaurasia;Colleen Douville;Loh Yince;Akshal Patel;Stephen Monteith
    • Journal of Cerebrovascular and Endovascular Neurosurgery
    • /
    • 제26권1호
    • /
    • pp.23-29
    • /
    • 2024
  • Objective: Flow diverting stents (FDS) are increasingly used for the treatment of intracranial aneurysms. While FDS can provide flow diversion of parent vessels, their high metal surface coverage can cause thromboembolism. Transcranial Doppler (TCD) emboli monitoring can be used to identify subclinical embolic phenomena after neurovascular procedures. Limited data exists regarding the use of TCDs for emboli monitoring in the periprocedural period after FDS placement. We evaluated the rate of positive TCDs microembolic signals and stroke after FDS deployment at our institution. Methods: We retrospectively evaluated 105 patients who underwent FDS treatment between 2012 and 2016 using the Pipeline stent (Medtronic, Minneapolis, MN, USA). Patients were pretreated with aspirin and clopidogrel. All patients were therapeutic on clopidogrel pre-operatively. TCD emboli monitoring was performed immediately after the procedure. Microembolic signals (mES) were classified as "positive" (<15 mES/hour) and "strongly positive" (>15 mES/hour). Clinical stroke rates were determined at 2-week and 6-month post-operatively. Results: A total of 132 intracranial aneurysms were treated in 105 patients. TCD emboli monitoring was "positive" in 11.4% (n=12) post-operatively and "strongly positive" in 4.8% (n=5). These positive cases were treated with heparin drips or modification of the antiplatelet regimen, and TCDs were repeated. Following medical management modifications, normalization of mES was achieved in 92% of cases. The overall stroke rates at 2-week and 6-months were 3.8% and 4.8%, respectively. Conclusions: TCD emboli monitoring may help early in the identification of thromboembolic events after flow diversion stenting. This allows for modification of medical therapy and, potentially, preventionf of escalation into post-operative strokes.

기계 학습 기반 분석을 위한 다변량 정형 데이터 처리 및 시각화 방법: Titanic 데이터셋 적용 사례 연구 (Multi-Variate Tabular Data Processing and Visualization Scheme for Machine Learning based Analysis: A Case Study using Titanic Dataset)

  • 성주형;권기원;박경원;송병철
    • 인터넷정보학회논문지
    • /
    • 제25권4호
    • /
    • pp.121-130
    • /
    • 2024
  • 정보 통신 기술의 기하급수적인 발전에 따라 확보 가능한 데이터의 종류와 크기가 증가하고 있다. 이러한 대량의 데이터를 활용하기 위해, 통계 등 확보한 데이터를 분석하는 것이 중요하지만 다양화되고 복잡도가 증가한 데이터를 일반적인 방법으로 처리하는 것에는 명확한 한계가 있다. 한편, 연산 처리 능력 고도화 및 자동화 시스템에 대한 수요 증가에 따라 다양한 분야에 기계 학습을 적용하여 그동안 해결하지 못하였던 문제들을 풀고자 하는 시도가 증가하고 있다. 기계 학습 모델의 성능을 확보하기 위해서 모델의 입력에 사용되는 데이터를 가공하는 것과 해결하고자 하는 목적 함수에 따라 모델을 설계하는 것이 중요하다. 많은 연구를 통해 데이터의 종류 및 특성에 따라 데이터를 처리하는 방법이 제시되었으며, 그 방법에 따라 기계 학습의 성능에는 큰 차이가 나타난다. 그럼에도 불구하고, 데이터의 종류와 특성이 다양해짐에 따라 데이터 분석을 위하여 어떠한 데이터 처리 방법을 적용해야 하는지에 대한 어려움이 존재한다. 특히, 기계 학습을 이용하여 비선형적 문제를 해결하기 위해서는 다변량 데이터를 처리하는 것이 필수적이다. 본 논문에서는 다양한 형태의 변수를 포함하는 Kaggle의 Titanic 데이터셋을 이용하여 기계 학습 기반으로 데이터 분석을 수행하기 위한 다변량 정형 (tabular) 데이터 처리 방법에 대해 제시한다. 데이터 특성에 따른 통계 분석을 적용한 입력 변수 필터링, 데이터 정규화 등의 처리 방법을 제안하고, 데이터 시각화를 통해 데이터 구조를 분석한다. 마지막으로, 기계 학습 모델을 설계하고, 제안하는 다변량 데이터 처리를 적용하여 모델을 훈련시킨다. 그 이후, 훈련된 모델을 사용하여 탑승객의 생존 여부 예측 성능을 분석한다. 본 논문에서 제시하는 다변량 데이터 처리와 시각화를 적용하여 다양한 환경에서 기계 학습 기반 분석에 확장할 수 있을 것으로 기대한다.

충청 동부지역 지각의 P, S파 감쇠 분석 (Attenuation of High-Frequency P and S Waves in the Crust of Eastern Part of Choongchung Provinces)

  • 경재복;김규동
    • 한국지구과학회지
    • /
    • 제24권8호
    • /
    • pp.684-690
    • /
    • 2003
  • 최근 새로운 행정수도의 이전이 예상된 남한 중부 충청지방에 대한 관심이 고조되고 있다. 우리는 이 지역에서 1996년 9월 이후 한국교원대학교 지진관측망을 설치하석 운영 중이며, 이 관측망 중 2개 관측소에서 기록된 60개의 지진자료를 바탕으로 확장 Coda 규격화법을 이용하여 Q$_P^{-1}$ 과 Q$_S^{-1}$을 동시에 측정하였다. 부족한 자료를 보충하기 위해서 한국지질자원연구원 관측망 중 한국교원대학교 관측망과 지리적으로 인접한 1개의 관측소에서 기록된 33개의 지진자료도 함께 분석하였다. 측정된 Q$_P^{-1}$은 (1.9${\pm}$3.0)${\times}$10$^{-3}$에서 (5.4${\pm}$1.5)${\times}$10$^{-4}$으로, Q$_S^{-1}$은 (2.4${\pm}$1.4)${\times}$10$^{-3}$에서 (6.3${\pm}$1.1)${\times}$10$^{-4}$으로 주파수가 3.0Hz에서 24Hz로 늘어남에 따라 줄어드는 주파수 의존적 특성을 보인다. 이 값을 주파수의 지수형태로 나타내면 Q$_P^{-1}$=0.003f^{-0.62}$, Q$_S^{-1}$=0.006f$^{-0.071}$이다. 이 값들은 지진학적으로 안정한 전 세계의 다른 지역의 값과 유사하며 남한 남동부 지역값에 비해서는 다소 약한 주파수 의존을 나타낸다. 이는 고주파수에서 높은 Q$^{-1}$값 때문이다. 남한 남동부와 충청 동부지역 간의 Q$^{-1}$의 차이를 평가하기 위해서는 보다 많은 관측이 요구된다.

Brain SPECT Processing에 있어서 Macro Program 사용의 유용성 (Usefulness of applying Macro for Brain SPECT Processing)

  • 김계환;이홍재;김진의;김현주
    • 핵의학기술
    • /
    • 제13권1호
    • /
    • pp.35-39
    • /
    • 2009
  • 서론 : 핵의학에 있어서 컴퓨터의 발전은 질적인 향상뿐 아니라 양적으로도 성장하고 있다. 다양한 소프트웨어를 사용하여 핵의학과 업무에 적용한다면 양질의 영상을 얻고 단순작업의 시간을 줄일 수 있을 것이다. 핵의학과 업무에 있어 컴퓨터를 이용한 processing에 할애하는 시간은 상당하여, 이 시간을 줄이는 방법으로 Macro라는 프로그램을 적용하기로 하였고, 단순 반복 작업이 많은 Brain SPECT SPM processing과 Brain SPECT PACS verify processing에 적용해 보기로 하였다. 실험재료 및 방법 : Brain SPECT에서 SPM processing과 작업 건수가 많은 PACS 작업 두 가지를 대상으로 하였다. SPM은 Brain의 Neuroimaging data를 분석하기 위한 소프트웨어 패키지로서 그룹간의 정량적인 분석을 목적으로 하고, Realignment, Normalization, Smoothing, Mapping 등의 복잡한 과정을 거쳐 결과를 만들어낸다. 이 과정을 Macro Program를 이용해서 간단하게 코딩하는 작업을 거쳐 만들어 보았다. PACS verify작업은 PACS로 보낸 영상을 간단하게 Color mapping, Gray scale 조정, 복사, 잘라 붙이는 과정으로 이루어지는데, 이를 Macro Program을 이용하여 직접 마우스 좌표를 입력하였다. 수작업으로 했을 때와 Macro Program을 활용했을 때 결과물을 만드는 시간을 기록하여 2007년 검사건수에 대입하여 결과를 도출하였다. 결과 : 2007년 SPM 검사 건수는 115건, PACS 작업 건수는 Diamox 검사 기준으로 834건이었다. SPM을 수작업은 숙련도에 따라 10분에서 15분 소요되었고, Macro를 사용시 5분 30초가 소요되었다. 검사 건수에 대입하여 년 평균 시간을 산출하면 SPM을 수작업으로 했을 시 숙련도에 따라 1150~1725분(19~29시간)이 소요되었고, Macro 사용 시에는 632분(10.5 시간)이 걸렸다. PACS는 수작업 시 2~3분이 걸렸으며, Macro를 사용 시에는 45초가 걸렸다. 이를 검사 건수에 대입하면 수작업 시 1668~2502분(28~42시간)이 걸렸고, Macro 사용시 625분(10시간)이 소요되어서 1043~1877분(17~31)시간이 절약 되었다. 결과적으로, SPM에 있어서 45~63%, PACS 작업에 있어서는 62~75%, 2007년 기준으로 전체 Brain SPECT Processing에서 55~70% 정도의 시간 절약 효과를 볼 수 있었다. 결론 : 2007년 검사 건수 기준으로 Macro 프로그램 사용시 상당한 시간절약 효과를 가져왔고 아무리 적은 시간이 걸리는 작업이라도 건수에 따라 많은 시간을 줄일 수 있다는 것을 확인하였다. 이는 검사실 근무자에게 검사하는 환자에게 더욱 집중할 수 있는 시간적 여유를 주어 안전사고 발생률을 더욱 줄일 수 있을 것이다. 그리고, 논문을 통해서 알 수 있는 것처럼, Brain SPECT 프로세싱뿐만 아니라 다른 다양한 분야의 단순반복 업무에 매크로를 활용함으로써 얻을 수 있는 시간적 이득과 작업 효율성은 상당할 것이라 생각되어진다.

  • PDF

단면 유속관측을 통한 조석 유입구에서의 단면통과 유량 및 조량 산정 (Estimation of Net Flux of Water Mass and Tidal Prism at a Tidal Entrance through Bottom Tracking with ADCP)

  • 양수현;김용묵;황규남
    • 한국해안·해양공학회논문집
    • /
    • 제28권3호
    • /
    • pp.160-170
    • /
    • 2016
  • 본 연구에서는 조석 유입구에서의 단면통과 유량 및 조량 산정을 목적으로 목포해역 내 조석 유입구에서 ADCP를 이용한 단면 유속관측이 수행되었다. 우선, 원시 관측자료는 지배적인 유속성분 도출을 위하여 단면의 회전정도를 고려한 좌표회전이 수행되었으며, 정규화를 통하여 수평/수직방향 Sigma 좌표로 변환되었다. 또한, 관측이 이루어지지 않는 저면과 수면 근처의 Blank zone 데이터는 von-Karman 유속분포식을 이용하여 보간되었다. 보정된 자료를 이용하여 단면통과 유량이 정량적으로 산정되었는데, 조석에 따른 단면통과 유량의 변화양상 뿐만 아니라 목포해역의 낙조우세적 조석특성이 잘 나타나는 것으로 확인되었다. 또한, 과거 연구들에서 제시되는 조량 산정자료의 조석조건을 보완하여 현장 관측자료에 기반한 조량산정 방법의 조건이 재정립되었으며, 새로운 정의에 근거하여 조석 유입구에서의 단면 유속관측 자료를 이용한 조량의 정량적 산정이 국내 최초로 수행되었다. 조량 산정결과는 과거 연구들로부터 도출된 조량과 조석 유입구 흐름 단면적의 상관관계 결과와 비교 분석되었으며, 산정된 결과는 과거 연구결과들과 잘 일치하는 것으로 나타났다.

가사 텍스트의 감성분석에 기반 한 음악 시각화 콘텐츠 개발 (Development of the Artwork using Music Visualization based on Sentiment Analysis of Lyrics)

  • 김혜란
    • 한국콘텐츠학회논문지
    • /
    • 제20권10호
    • /
    • pp.89-99
    • /
    • 2020
  • 본 연구에서는 음악 가사의 감성분석을 통한 영상작품의 제작을 시도하였다. 가사 텍스트의 감성분석에는 구글(Google)의 자연어 처리 API를 활용하였고 그 결과를 영상 시각화 규칙과 연결하였다. 기존의 공학적 연구들에서의 텍스트 기반 감성분석은 소셜 미디어에서의 사용자 댓글과 리뷰를 분석해서 사용자들의 감정과 태도를 이해하도록 하는 연구들이 많았다. 본 연구에서는 감성분석 데이터가 예술작품 창작의 재료가 되어 심미적 표현에 활용될 수 있도록 하였다. 기계의 관점에서 볼 때 감정은 숫자로 치환되어 나타나므로 규격화, 표준화 될 수밖에 없다는 한계점이 있다. 이에 가사 데이터의 감성분석 결과를 시각예술에서의 조형요소들의 규칙과 연결하여 이러한 한계를 일부 극복해보자 하였다. 본 연구는 인공지능이 인간의 고도화 된 정신적 산물인 예술작품의 창작까지 시도하는 현 시대를 반영하며 문학, 음악, 회화, 무용 등 기존의 전통적인 예술작품을 기계를 통해 바라본 새로운 형태의 예술작품으로 만들어 보고자 하는 목표를 가지고 있다. 더불어 감정표현에 어려움을 겪는 발달 장애인들의 창작활동과 심리분석 및 의사소통을 용이하게 해주는 예술창작 및 교육 플랫폼으로 확장되기를 기대한다.

이수평가지수 개발을 통한 유역별 물이용 특성 평가 (Evaluation of Basin-Specific Water Use through Development of Water Use Assessment Index)

  • 백승협;최시중
    • 한국습지학회지
    • /
    • 제15권3호
    • /
    • pp.367-380
    • /
    • 2013
  • 본 연구에서는 물이용특성을 평가할 수 있는 세부지표 및 주제별 중간지수를 과거자료 분석과 요인분석을 통하여 선정하고 주제접근방식의 구성체계로 구성하였다. 또한 이를 종합하여 유역의 물이용 특성을 평가할 수 있는 통합지수(이수취약성지수)를 개발하였다. 개발된 지수를 이용하여 1990년부터 2007년까지의 유관기관의 자료를 활용하여 북한을 제외한 812개의 표준유역에 대해 물이용 특성을 평가하였다. 지표산정에 있어 여러 표준화 및 가중치부여 방법 중 타당한 방법을 찾고자 민감도 분석을 실시하였으며 개발된 지표의 객관성을 높이고자 물이용 특성을 평가하기 위해 개발된 다른 지표와는 달리 피해이력을 세부지표에서 제외하였다. 또한 실증적인 지표 및 지수 개발과 신뢰성을 확보하기 위하여 피해이력 유무에 따른 결과 비교 분석과 2008년 강원지역에 현장 적용성 검토를 수행하였다. 이와 같은 지수의 검증 과정을 통하여 세부지표의 선정과 지수 산정 방법 및 산정식의 타당성을 확인하였다. 본 연구의 결과는 유역의 물이용 관련 취약성을 시 공간적으로 분석하고 이에 대한 관련 정보를 다양하게 제공함으로써 물이용 관련 사업이나 정책의 우선순위 결정, 취약부분에 대한 보완책 마련 등의 대책 및 수립을 지원하는 등 다양한 부분에 적용할 수 있을 것으로 판단된다.

Development of Virtual Makeup Tool based on Mobile Augmented Reality

  • Song, Mi-Young;Kim, Young-Sun
    • 한국컴퓨터정보학회논문지
    • /
    • 제26권1호
    • /
    • pp.127-133
    • /
    • 2021
  • 본 연구에서는 얼굴형 기준 모델 데이터를 기반으로 사용자의 얼굴형을 분석하고 얼굴 형 메이크업을 제공하여 가상 메이크업을 제공하기 위해 증강 현실 기반 메이크업 도구를 구축하였다. 얼굴형을 분석하려면 먼저 카메라로 촬영 한 이미지에서 얼굴을 인식 한 다음 얼굴 윤곽 영역의 특징을 추출하여 분석 속성으로 사용한다. 다음으로 각 얼굴형 기준 모델 데이터의 윤곽 영역 특징과 비교하기 위해 추출된 얼굴 윤곽 영역의 특징점을 정규화한다. 얼굴 모양은 정규화된 윤곽 영역의 특징점과 각 얼굴형 기준 모델 데이터의 특징점 사이의 거리 차이를 이용하여 예측 분석한다. 증강형실기반 가상메이크업에서는 카메라로부터 영상 입력에서는 영상에서 얼굴을 실시간으로 인식하여 얼굴 부위별 영역의 특징점을 추출하고, 얼굴형 분석처리과정을 통해 분석된 얼굴형에 따라 어울리는 메이크업을 제공하여 가상의 메이크업의 결과를 확인 할 수 있다. 우리는 제안된 시스템을 통해 화장품 소비자로 하여금 자신에게 어울리는 메이크업 디자인을 확인하여 화장품 구매 결정에 대한 편의 및 영향을 미칠 것으로 기대한다. 또한 가상의 자아에 얼굴 메이크업을 적용함으로써 매력적인 자신의 이미지를 만들어내는데 도움을 줄 것이다.