• 제목/요약/키워드: AI-based image analysis

검색결과 113건 처리시간 0.027초

폐암 선암 생존시간 예측을 위한 병리학적 영상분석 (Survival Time Prediction for Adenocarcinoma Lung Cancer based on Pathological Image Analysis)

  • 보티트엉비;김애라;이태범;김수형
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2021년도 추계학술발표대회
    • /
    • pp.779-782
    • /
    • 2021
  • Survival time analysis is one of the main methods used by the pathologist to prognosis for cancer patients. In this paper, we strive to estimate the individual survival time of Adenocarcinoma (ADC) lung cancer patients from pathological images by adopting the convolutional neural network called the SurvPatchV1 model. First, we extracted tissue patches from the whole-slide images (WSI) to deal with extremely large dimensions of WSI. Then the survival time of each patch is estimated through the SurvPatchV1 model. Finally, the individual survival time of each patient is computed. The proposed method is trained and tested on the subset of the NLST dataset for ADC lung cancer. The result demonstrates that our model can obtain all tissue information in lieu of only tumor information in a whole pathological image to estimate the individual survival time.

이미지 기반 AI 피부 컬러 측정 기술 및 서비스 적용에 관한 고찰 (Analysis Product Recommendation Service Using Image-Based AI Skin Color Detecting Technology)

  • 박학권;임영환;림빈
    • 문화기술의 융합
    • /
    • 제8권3호
    • /
    • pp.501-506
    • /
    • 2022
  • COVID-19의 영향으로 로드샵과 수많은 오프라인 매장은 예전과 달리 많은 어려움을 격고 있다. 이에 대응하기 위하여 뷰티업계에서는 고객들의 수요를 충족하고자 다양한 비대면 서비스들을 선보이고 있다. 본 논문에서는 비대면 서비스 중 모바일 환경에서 이미지 기반 퍼스널 컬러 측정 기술의 품질과 제품 추천 서비스에 대한 고찰을 진행하였다. 현재 글로벌 서비스 시장에서 많이 활용되고 있는 엔진에 대한 다양한 실험과 실제 측색 장비를 활용한 컬러 측정 데이터에 대한 비교 분석, 서비스 구현 및 지표 데이터 등으로 구성되었다. 정밀한 실험결과를 위해 일관된 실험 환경에서 실험을 진행하였다. 본 논문이 이미지 기반 피부 컬러 측정에 따른 개인화 제품 추천 서비스의 확장에 활용될 수 있기를 기대한다.

패션 제조 기업의 디지털 트랜스포메이션을 위한 인공지능 솔루션 개발 및 활용 현황 (Current Status of Development and Practice of Artificial Intelligence Solutions for Digital Transformation of Fashion Manufacturers)

  • 김하연;최우진;이유리;장세윤
    • 패션비즈니스
    • /
    • 제26권2호
    • /
    • pp.28-47
    • /
    • 2022
  • Rapid development of information and communication technology is leading the digital transformation (hereinafter, DT) of various industries. At this point in rapid online transition, fashion manufacturers operating offline-oriented businesses have become highly interested in DT and artificial intelligence (hereinafter AI), which leads DT. The purpose of this study is to examine the development status and application case of AI-based digital technology developed for the fashion industry, and to examine the DT stage and AI application status of domestic fashion manufacturers. Hence, in-depth interviews were conducted with five domestic IT companies developing AI technology for the fashion industry and six domestic fashion manufacturers applying AI technology. After analyzing interviews, study results were as follows: The seven major AI technologies leading the DT of the fashion industry were fashion image recognition, trend analysis, prediction & visualization, automated fashion design generation, demand forecast & optimizing inventory, optimizing logistics, curation, and ad-tech. It was found that domestic fashion manufacturers were striving for innovative changes through DT although the DT stage varied from company to company. This study is of academic significance as it organized technologies specialized in fashion business by analyzing AI-based digitization element technologies that lead DT in the fashion industry. It is also expected to serve as basic study when DT and AI technology development are applied to the fashion field so that traditional domestic fashion manufacturers showing low growth can rise again.

K-Means Clustering으로 분류한 닭 깃털색 표현형의 분석 (Analysis of Chicken Feather Color Phenotypes Classified by K-Means Clustering using Reciprocal F2 Chicken Populations)

  • 박종호;허선영;김민준;조은진;차지혜;진대혁;고영준;이승환;이준헌
    • 한국가금학회지
    • /
    • 제49권3호
    • /
    • pp.157-165
    • /
    • 2022
  • RGB 조건에서 하나의 픽셀은 255의 세제곱 개 이상의 색상을 표현할 수 있다. 현재까지의 컴퓨터 비전 연구는 조류에서 나타나는 다양한 깃털색 표현형에 대해 세밀히 분석하여 종을 구분하였지만, GWAS에 이용될 목적을 위해 다양하게 유전되는 색상을 단순화하지 못하였다고 판단된다. 본 연구는 연산오계(YO)와 백색레그혼(WL) 상호역교배 F2 집단을 이용하였으며 이미지 양자화를 통하여 이미지의 크기를 줄이고 저장을 용이하게 하였으며 깃털색의 원인 유전자 탐색을 위한 기초 자료를 제공하기 위하여 육안으로 결정하였던 다양한 깃털색을 단순화하였다. 특히, GWAS 연구에 필요한 수치화된 표현형을 제시하였다는 측면에서 가치가 있다고 판단된다.

AI 및 IoT 기반의 생활 폐기물 모니터링 시스템 구현 (Implementation of Monitoring System of the Living Waste based on Artificial Intelligence and IoT)

  • 김상현;강영훈;윤달환
    • 전기전자학회논문지
    • /
    • 제24권1호
    • /
    • pp.302-310
    • /
    • 2020
  • 본 논문은 인공지능과 IoT 기반의 생활폐기물 모니터링 시스템을 구현하고, 이를 통하여 효율적인 쓰레기 처리와 관리 방안을 제안한다. 제주 지역은 타 지역에 비하여 대체로 정량적 추정과 운영 전략을 수립하는데 장점을 갖추고 있다. 특히, 상주인구 대비 사계절 관광객의 변화를 통하여 쓰레기 량의 변화를 알 수 있음으로써 쓰레기 종량제 연구의 좋은 사례가 되고 있다. 이에 클린하우스 현장에 기존 CCTV를 연동하여 정보를 제공할 수 있는 IoT 장치를 개발하고, 카메라의 쓰레기 영상데이터 셋을 분석하기 위하여 인공지능(AI) 알고리즘을 이용한다. 이를 통하여 쓰레기가 쓰레기통 밖에 잘못 투기되었는지, 쓰레기 처리를 위해 판단된 의사결정에 따라 쓰레기 차량이 수거해야 할지 정보를 전송함으로써 원활한 쓰레기 처리 및 홍보방송을 할 수 있도록 한다. 개발된 IoT 장치는 국가 공인 시험연구기관을 통해 전파적합성 시험과 환경시험을 하고, 다양한 쓰레기 대상을 제안한 인공지능 알고리즘으로 시뮬레이션하여 의사판단용 데이터 구축방법으로 활용하고자 한다.

Siamese 네트워크 기반 SAR 표적영상 간 유사도 분석 (Similarity Analysis Between SAR Target Images Based on Siamese Network)

  • 박지훈
    • 한국군사과학기술학회지
    • /
    • 제25권5호
    • /
    • pp.462-475
    • /
    • 2022
  • Different from the field of electro-optical(EO) image analysis, there has been less interest in similarity metrics between synthetic aperture radar(SAR) target images. A reliable and objective similarity analysis for SAR target images is expected to enable the verification of the SAR measurement process or provide the guidelines of target CAD modeling that can be used for simulating realistic SAR target images. For this purpose, this paper presents a similarity analysis method based on the siamese network that quantifies the subjective assessment through the distance learning of similar and dissimilar SAR target image pairs. The proposed method is applied to MSTAR SAR target images of slightly different depression angles and the resultant metrics are compared and analyzed with qualitative evaluation. Since the image similarity is somewhat related to recognition performance, the capacity of the proposed method for target recognition is further checked experimentally with the confusion matrix.

CT 영상 기반 근감소증 진단을 위한 AI 영상분할 모델 개발 및 검증 (Development and Validation of AI Image Segmentation Model for CT Image-Based Sarcopenia Diagnosis)

  • 이충섭;임동욱;노시형;김태훈;고유선;김경원;정창원
    • 정보처리학회논문지:컴퓨터 및 통신 시스템
    • /
    • 제12권3호
    • /
    • pp.119-126
    • /
    • 2023
  • 근감소증은 국내는 2021년 질병으로 분류되었을 만큼 잘 알려져 있지 않지만 고령화사회에 진입한 선진국에서는 사회적 문제로 인식하고 있다. 근감소증 진단은 유럽노인근감소증 진단그룹(EWGSOP)과 아시아근감소증진단그룹(AWGS)에서 제시하는 국제표준지침을 따른다. 최근 진단방법으로 절대적 근육량 이외에 신체수행평가로 보행속도 측정과 일어서기 검사 등을 통하여 근육 기능을 함께 측정할 것을 권고하고 있다. 근육량을 측정하기 위한 대표적인 방법으로 DEXA를 이용한 체성분 분석 방법이 임상에서 정식으로 실시하고 있다. 또한 MRI 또는 CT의 복부 영상을 이용하여 근육량을 측정하는 다양한 연구가 활발하게 진행되고 있다. 따라서 본 논문에서는 근감소증 진단을 위해서 비교적 짧은 촬영시간을 갖는 CT의 복부영상기반으로 AI 영상 분할 모델을 개발하고 다기관 검증한 내용을 기술한다. 우리는 CT 영상 중에 요추의 L3 영역을 분류하여 피하지방, 내장지방, 근육을 자동으로 분할할 수 있는 인공지능 모델을 U-Net 모델을 사용하여 개발하였다. 또한 모델의 성능평가를 위해서 분할영역의 IOU(Intersection over Union)를 계산하여 내부검증을 진행했으며, 타 병원의 데이터를 활용하여 동일한 IOU 방법으로 외부검증을 진행한 결과를 보인다. 검증 결과를 토대로 문제점과 해결방안에 대해서 검증하고 보완하고자 했다.

커넥티드 차량 보급률 기반 고속도로 돌발상황 검지시간 추정 (Estimation of Incident Detection Time on Expressways Based on Market Penetration Rate of Connected Vehicles)

  • 남상기;정연식;김회경;김원길
    • 한국ITS학회 논문지
    • /
    • 제22권3호
    • /
    • pp.38-50
    • /
    • 2023
  • 최근 인공지능 (Artificial Intelligence: AI) 기술 발전으로 폐쇄회로 TV(Closed-Circuit television: CCTV)와 같은 영상 센서에 AI 기술을 도입하여 특정 돌발상황을 검지하고 있으나 대부분 고정식 장비 기반으로 돌발상황 검지가 진행되어왔다. 따라서 모든 도로 공간에 대한 돌발상황 검지에는 한계가 존재해왔다. 그러나 영상 센서와 edge-computing 기술 등의 발전으로 이동식 영상정보수집 및 분석 기술이 확산되고 있다. 본 연구는 이러한 이동식 영상 수집 및 분석 장비(커넥티드 차량)의 도입 수준에 따른 돌발상황 검지시간 감소효과를 추정하는 것이 목적이다. 이를 위해 2021년 경부고속도로 수원지사에서 수집된 돌발상황 발생 건수 자료를 활용하였다. 분석 결과 편도 2차로 고속도로는 커넥티드 차량의 보급률(Market Penetration Rate: MPR)이 4% 이상, 편도 3차로 고속도로는 3% 이상이면 돌발상황 검지 시간이 1분 이하로 나타났고, 편도 2차로와 편도 3차로 고속도로에서 MPR이 각각 0.4% 이상, 0.2% 이상이면 한국도로공사에서 발표한 평균 돌발상황 검지시간 보다 감소하는 것으로 나타났다.

Bioimage Analyses Using Artificial Intelligence and Future Ecological Research and Education Prospects: A Case Study of the Cichlid Fishes from Lake Malawi Using Deep Learning

  • Joo, Deokjin;You, Jungmin;Won, Yong-Jin
    • Proceedings of the National Institute of Ecology of the Republic of Korea
    • /
    • 제3권2호
    • /
    • pp.67-72
    • /
    • 2022
  • Ecological research relies on the interpretation of large amounts of visual data obtained from extensive wildlife surveys, but such large-scale image interpretation is costly and time-consuming. Using an artificial intelligence (AI) machine learning model, especially convolution neural networks (CNN), it is possible to streamline these manual tasks on image information and to protect wildlife and record and predict behavior. Ecological research using deep-learning-based object recognition technology includes various research purposes such as identifying, detecting, and identifying species of wild animals, and identification of the location of poachers in real-time. These advances in the application of AI technology can enable efficient management of endangered wildlife, animal detection in various environments, and real-time analysis of image information collected by unmanned aerial vehicles. Furthermore, the need for school education and social use on biodiversity and environmental issues using AI is raised. School education and citizen science related to ecological activities using AI technology can enhance environmental awareness, and strengthen more knowledge and problem-solving skills in science and research processes. Under these prospects, in this paper, we compare the results of our early 2013 study, which automatically identified African cichlid fish species using photographic data of them, with the results of reanalysis by CNN deep learning method. By using PyTorch and PyTorch Lightning frameworks, we achieve an accuracy of 82.54% and an F1-score of 0.77 with minimal programming and data preprocessing effort. This is a significant improvement over the previous our machine learning methods, which required heavy feature engineering costs and had 78% accuracy.

Damage Detection and Damage Quantification of Temporary works Equipment based on Explainable Artificial Intelligence (XAI)

  • Cheolhee Lee;Taehoe Koo;Namwook Park;Nakhoon Lim
    • 인터넷정보학회논문지
    • /
    • 제25권2호
    • /
    • pp.11-19
    • /
    • 2024
  • This paper was studied abouta technology for detecting damage to temporary works equipment used in construction sites with explainable artificial intelligence (XAI). Temporary works equipment is mostly composed of steel or aluminum, and it is reused several times due to the characters of the materials in temporary works equipment. However, it sometimes causes accidents at construction sites by using low or decreased quality of temporary works equipment because the regulation and restriction of reuse in them is not strict. Currently, safety rules such as related government laws, standards, and regulations for quality control of temporary works equipment have not been established. Additionally, the inspection results were often different according to the inspector's level of training. To overcome these limitations, a method based with AI and image processing technology was developed. In addition, it was devised by applying explainableartificial intelligence (XAI) technology so that the inspector makes more exact decision with resultsin damage detect with image analysis by the XAI which is a developed AI model for analysis of temporary works equipment. In the experiments, temporary works equipment was photographed with a 4k-quality camera, and the learned artificial intelligence model was trained with 610 labelingdata, and the accuracy was tested by analyzing the image recording data of temporary works equipment. As a result, the accuracy of damage detect by the XAI was 95.0% for the training dataset, 92.0% for the validation dataset, and 90.0% for the test dataset. This was shown aboutthe reliability of the performance of the developed artificial intelligence. It was verified for usability of explainable artificial intelligence to detect damage in temporary works equipment by the experiments. However, to improve the level of commercial software, the XAI need to be trained more by real data set and the ability to detect damage has to be kept or increased when the real data set is applied.