• 제목/요약/키워드: Artificial Intelligence Model

검색결과 1,739건 처리시간 0.024초

CNN 딥러닝을 활용한 경관 이미지 분석 방법 평가 - 힐링장소를 대상으로 - (Assessment of Visual Landscape Image Analysis Method Using CNN Deep Learning - Focused on Healing Place -)

  • 성정한;이경진
    • 한국조경학회지
    • /
    • 제51권3호
    • /
    • pp.166-178
    • /
    • 2023
  • 본 연구는 이용자들의 인식과 경험이 내재된 소셜미디어 사진에서 경관 이미지를 분석하기 위한 방법으로 CNN 딥러닝 방법을 소개하고 평가하는 데 그 목적이 있다. 본 연구에서는 힐링장소를 연구의 대상으로 설정하여 경관 이미지를 분석하였다. 연구를 위해 텍스트마이닝과 선행연구 고찰을 통해 힐링과 관련되는 7가지의 경관 형용사를 선정하였다. 이후 CNN 딥러닝 학습 사진 구축을 위해 50명의 평가자를 모집하였으며, 평가자들에게 포털사이트에서 '힐링', '힐링풍경', '힐링장소'로 검색되는 사진 중 7가지 형용사마다 가장 적합한 사진을 3장씩 수집하도록 하였다. 수집된 사진을 정제 및 데이터 증강 과정을 거쳐 CNN 모델을 제작하였다. 이후 힐링장소 경관 분석을 위해 포털사이트에서 '힐링'과 '힐링풍경'으로 검색되는 15,097장의 사진을 수집하여 이를 분류하였다. 연구결과 '기타'와 '실내'를 제외한 범주에서 '조용한'이 2,093장(22%)으로 가장 높게 나타났으며, '개방적인', '즐거운', '안락한', '깨끗한', '자연적인', '아름다운' 순으로 나타났다. CNN 딥러닝은 경관 이미지 분석에서도 결과를 도출 가능한 분석 방법임을 연구를 통해 알 수 있었다. 또한, 기존 경관 분석 방법을 보완할 수 있는 하나의 방법임을 시사하였고, 경관 이미지 학습 데이터 셋 구축을 통한 향후 심층적이고 다양한 경관 분석을 제안한다.

담수 유해남조 세포수·대사물질 농도 예측을 위한 머신러닝과 딥러닝 모델링 연구동향: 알고리즘, 입력변수 및 학습 데이터 수 비교 (Machine- and Deep Learning Modelling Trends for Predicting Harmful Cyanobacterial Cells and Associated Metabolites Concentration in Inland Freshwaters: Comparison of Algorithms, Input Variables, and Learning Data Number)

  • 박용은;김진휘;이한규;변서현;황순진;신재기
    • 생태와환경
    • /
    • 제56권3호
    • /
    • pp.268-279
    • /
    • 2023
  • 근래에 들어, 머신러닝과 딥러닝 모델은 다양한 수체 내 수질변화를 예측하기 위해 광범위하게 사용되고 있다. 특히, 담수호의 물 이용과 수생태계 건강성에 위협 요인으로 작용할 수 있는 유해남조의 발생을 예측하기 위해 많은 연구자들이 인공지능 모델을 활용하고 있다. 따라서, 본 연구에서는 최근까지 유해남조의 발생을 예측하기 위해 적용된 인공지능 모델링의 선행 연구들을 검토하였고, 딥러닝을 포함하여 머신러닝 모델을 이용한 이 분야 연구의 발전방향을 모색하고자 하였다. 먼저, Elsevier의 초록 인용 데이터베이스인 Scopus를 활용하여 체계적인 문헌 연구를 수행하였다. 주요 키워드를 이용하여 탐색 및 정리된 문헌들을 리뷰한 결과, 딥러닝 모델은 주로 남조 세포수 예측에만 사용되었고, 머신러닝 모델은 남조 세포수 이외에 microcystin, geosmin, 2-MIB와 같은 대사물질 예측에도 초점을 맞추고 있었다. 또한, 남조 세포수와 대사물질의 예측을 위해 활용된 입력변수들은 현저한 차이가 있었다. 남조의 대사물질을 예측하기 위해 딥러닝 모델이 적용된 바가 없었는데, 향후 빅데이터 구축을 통한 대사물질을 예측하는 연구가 필요할 것으로 사료된다.

Prediction of Patient Management in COVID-19 Using Deep Learning-Based Fully Automated Extraction of Cardiothoracic CT Metrics and Laboratory Findings

  • Thomas Weikert;Saikiran Rapaka;Sasa Grbic;Thomas Re;Shikha Chaganti;David J. Winkel;Constantin Anastasopoulos;Tilo Niemann;Benedikt J. Wiggli;Jens Bremerich;Raphael Twerenbold;Gregor Sommer;Dorin Comaniciu;Alexander W. Sauter
    • Korean Journal of Radiology
    • /
    • 제22권6호
    • /
    • pp.994-1004
    • /
    • 2021
  • Objective: To extract pulmonary and cardiovascular metrics from chest CTs of patients with coronavirus disease 2019 (COVID-19) using a fully automated deep learning-based approach and assess their potential to predict patient management. Materials and Methods: All initial chest CTs of patients who tested positive for severe acute respiratory syndrome coronavirus 2 at our emergency department between March 25 and April 25, 2020, were identified (n = 120). Three patient management groups were defined: group 1 (outpatient), group 2 (general ward), and group 3 (intensive care unit [ICU]). Multiple pulmonary and cardiovascular metrics were extracted from the chest CT images using deep learning. Additionally, six laboratory findings indicating inflammation and cellular damage were considered. Differences in CT metrics, laboratory findings, and demographics between the patient management groups were assessed. The potential of these parameters to predict patients' needs for intensive care (yes/no) was analyzed using logistic regression and receiver operating characteristic curves. Internal and external validity were assessed using 109 independent chest CT scans. Results: While demographic parameters alone (sex and age) were not sufficient to predict ICU management status, both CT metrics alone (including both pulmonary and cardiovascular metrics; area under the curve [AUC] = 0.88; 95% confidence interval [CI] = 0.79-0.97) and laboratory findings alone (C-reactive protein, lactate dehydrogenase, white blood cell count, and albumin; AUC = 0.86; 95% CI = 0.77-0.94) were good classifiers. Excellent performance was achieved by a combination of demographic parameters, CT metrics, and laboratory findings (AUC = 0.91; 95% CI = 0.85-0.98). Application of a model that combined both pulmonary CT metrics and demographic parameters on a dataset from another hospital indicated its external validity (AUC = 0.77; 95% CI = 0.66-0.88). Conclusion: Chest CT of patients with COVID-19 contains valuable information that can be accessed using automated image analysis. These metrics are useful for the prediction of patient management.

Accuracy of posteroanterior cephalogram landmarks and measurements identification using a cascaded convolutional neural network algorithm: A multicenter study

  • Sung-Hoon Han;Jisup Lim;Jun-Sik Kim;Jin-Hyoung Cho;Mihee Hong;Minji Kim;Su-Jung Kim;Yoon-Ji Kim;Young Ho Kim;Sung-Hoon Lim;Sang Jin Sung;Kyung-Hwa Kang;Seung-Hak Baek;Sung-Kwon Choi;Namkug Kim
    • 대한치과교정학회지
    • /
    • 제54권1호
    • /
    • pp.48-58
    • /
    • 2024
  • Objective: To quantify the effects of midline-related landmark identification on midline deviation measurements in posteroanterior (PA) cephalograms using a cascaded convolutional neural network (CNN). Methods: A total of 2,903 PA cephalogram images obtained from 9 university hospitals were divided into training, internal validation, and test sets (n = 2,150, 376, and 377). As the gold standard, 2 orthodontic professors marked the bilateral landmarks, including the frontozygomatic suture point and latero-orbitale (LO), and the midline landmarks, including the crista galli, anterior nasal spine (ANS), upper dental midpoint (UDM), lower dental midpoint (LDM), and menton (Me). For the test, Examiner-1 and Examiner-2 (3-year and 1-year orthodontic residents) and the Cascaded-CNN models marked the landmarks. After point-to-point errors of landmark identification, the successful detection rate (SDR) and distance and direction of the midline landmark deviation from the midsagittal line (ANS-mid, UDM-mid, LDM-mid, and Me-mid) were measured, and statistical analysis was performed. Results: The cascaded-CNN algorithm showed a clinically acceptable level of point-to-point error (1.26 mm vs. 1.57 mm in Examiner-1 and 1.75 mm in Examiner-2). The average SDR within the 2 mm range was 83.2%, with high accuracy at the LO (right, 96.9%; left, 97.1%), and UDM (96.9%). The absolute measurement errors were less than 1 mm for ANS-mid, UDM-mid, and LDM-mid compared with the gold standard. Conclusions: The cascaded-CNN model may be considered an effective tool for the auto-identification of midline landmarks and quantification of midline deviation in PA cephalograms of adult patients, regardless of variations in the image acquisition method.

인코더와 디코더에 기반한 합성곱 신경망과 순환 신경망의 새로운 하이브리드 접근법 (New Hybrid Approach of CNN and RNN based on Encoder and Decoder)

  • 우종우;김건우;최근호
    • 경영정보학연구
    • /
    • 제25권1호
    • /
    • pp.129-143
    • /
    • 2023
  • 빅데이터 시대를 맞이하여 인공지능 분야는 괄목할만한 성장을 보이고 있으며 특히 딥러닝에 의한 이미지 분류 학습방법이 중요한 영역으로 자리하고 있다. 이미지 분류에서 많이 사용되어 온 CNN의 성능을 더욱 개선하기 위해 다양한 연구가 활발하게 진행되었는데, 이 중에서 대표적인 방법이 CRNN(Convolutional Recurrent Neural Network) 알고리즘이다. CRNN 알고리즘은 이미지 분류를 위한 CNN과 시계열적 요소를 인식하기 위한 RNN의 조합으로 구성되는데, CRNN의 RNN영역에서 사용하는 입력값은 학습 대상의 이미지를 합성곱과 풀링 기법을 적용하여 추출된 결과물을 flatten한 값이고, 이 입력값들은 이미지 내 동일 위상에 있는 픽셀값들이 서로 다른 순서로 나타나기 때문에, RNN에서 의도한 이미지 내 배열 순서를 제대로 학습하기 어렵다는 한계점을 지닌다. 따라서 본 연구는 인코더와 디코더의 개념을 응용한 CNN과 RNN의 새로운 하이브리드 방법을 제안하여, 이미지 분류 성능을 향상시키는 것을 목적으로 하였다. 본 연구에서는 다양한 알고리즘 비교 실험을 통해, 새로운 하이브리드 방법의 효과성을 검증하였다. 본 연구는 인코더와 디코더 개념의 적용 가능성을 넓히고, 제안한 방법이 기존 하이브리드 방법에 비해, 복잡도가 크게 증가하지 않아 모델 학습 시간과 인프라 구축 비용 측면에서 이점을 있다는 점에서 학문적 시사점을 가진다. 또한, 정확한 이미지 분류가 필요한 다양한 분야에서 제공되는 서비스의 품질을 높일 수 있는 가능성을 제시하였다는 점에서 실무적 시사점을 가진다.

Deep learning-based automatic segmentation of the mandibular canal on panoramic radiographs: A multi-device study

  • Moe Thu Zar Aung;Sang-Heon Lim;Jiyong Han;Su Yang;Ju-Hee Kang;Jo-Eun Kim;Kyung-Hoe Huh;Won-Jin Yi;Min-Suk Heo;Sam-Sun Lee
    • Imaging Science in Dentistry
    • /
    • 제54권1호
    • /
    • pp.81-91
    • /
    • 2024
  • Purpose: The objective of this study was to propose a deep-learning model for the detection of the mandibular canal on dental panoramic radiographs. Materials and Methods: A total of 2,100 panoramic radiographs (PANs) were collected from 3 different machines: RAYSCAN Alpha (n=700, PAN A), OP-100 (n=700, PAN B), and CS8100 (n=700, PAN C). Initially, an oral and maxillofacial radiologist coarsely annotated the mandibular canals. For deep learning analysis, convolutional neural networks (CNNs) utilizing U-Net architecture were employed for automated canal segmentation. Seven independent networks were trained using training sets representing all possible combinations of the 3 groups. These networks were then assessed using a hold-out test dataset. Results: Among the 7 networks evaluated, the network trained with all 3 available groups achieved an average precision of 90.6%, a recall of 87.4%, and a Dice similarity coefficient (DSC) of 88.9%. The 3 networks trained using each of the 3 possible 2-group combinations also demonstrated reliable performance for mandibular canal segmentation, as follows: 1) PAN A and B exhibited a mean DSC of 87.9%, 2) PAN A and C displayed a mean DSC of 87.8%, and 3) PAN B and C demonstrated a mean DSC of 88.4%. Conclusion: This multi-device study indicated that the examined CNN-based deep learning approach can achieve excellent canal segmentation performance, with a DSC exceeding 88%. Furthermore, the study highlighted the importance of considering the characteristics of panoramic radiographs when developing a robust deep-learning network, rather than depending solely on the size of the dataset.

인공지능 기반 사회적 지지를 위한 대형언어모형의 공감적 추론 향상: 심리치료 모형을 중심으로 (Enhancing Empathic Reasoning of Large Language Models Based on Psychotherapy Models for AI-assisted Social Support)

  • 이윤경;이인주;신민정;배서연;한소원
    • 인지과학
    • /
    • 제35권1호
    • /
    • pp.23-48
    • /
    • 2024
  • 대형언어모형(LLM)을 현실에 적용하려는 지속적인 노력에도 불구하고, 인공지능이 맥락을 이해하고 사람의 의도에 맞게 사회적 지지를 제공하는 능력은 아직 제한적이다. 본 연구에서는 LLM이 사람의 감정 상태를 추론하도록 유도하기 위해, 심리 치료 이론을 기반으로 한 공감 체인(Chain of Empathy, CoE) 프롬프트 방법을 새로 개발했다. CoE 기반 LLM은 인지-행동 치료(CBT), 변증법적 행동 치료(DBT), 인간 중심 치료(PCT) 및 현실 치료(RT)와 같은 다양한 심리 치료 방식을 참고하였으며, 각 방식의 목적에 맞게 내담자의 정신 상태를 해석하도록 설계했다. CoE 기반 추론을 유도하지 않은 조건에서는 LLM이 사회적 지지를 구하는 내담자의 글에 주로 탐색적 공감 표현(예: 개방형 질문)만을 생성했으며, 추론을 유도한 조건에서는 각 심리 치료 모형을 대표하는 정신 상태 추론 방법과 일치하는 다양한 공감 표현을 생성했다. 공감 표현 분류 과제에서 CBT 기반 CoE는 감정적 반응, 탐색, 해석 등을 가장 균형적으로 분류하였으나, DBT 및 PCT 기반 CoE는 감정적 반응 공감 표현을 더 잘 분류하였다. 추가로, 각 프롬프트 조건 별로 생성된 텍스트 데이터를 정성적으로 분석하고 정렬 정확도를 평가하였다. 본 연구의 결과는 감정 및 맥락 이해가 인간-인공지능 의사소통에 미치는 영향에 대한 함의를 제공한다. 특히 인공지능이 안전하고 공감적으로 인간과 소통하는 데 있어 추론 방식이 중요하다는 근거를 제공하며, 이러한 추론 능력을 높이는 데 심리학의 이론이 인공지능의 발전과 활용에 기여할 수 있음을 시사한다.

프롬프트 엔지니어링을 통한 GPT-4 모델의 수학 서술형 평가 자동 채점 탐색: 순열과 조합을 중심으로 (Exploring automatic scoring of mathematical descriptive assessment using prompt engineering with the GPT-4 model: Focused on permutations and combinations)

  • 신병철;이준수;유연주
    • 한국수학교육학회지시리즈A:수학교육
    • /
    • 제63권2호
    • /
    • pp.187-207
    • /
    • 2024
  • 본 연구에서는 GPT-4 기반의 ChatGPT를 활용한 서술형 평가 문항의 자동 채점 가능성을 탐색하기 위해 교사와 GPT-4 기반의 ChatGPT의 채점 결과를 비교, 분석하였다. 이를 위해 학생평가지원포털에 있는 고등학교 1학년 순열과 조합 단원에서 3개의 서술형 문항을 선정하였다. 문항 1, 2는 문제 해결 전략이 1가지인 문항이고, 문항 3은 문제 해결 전략이 2가지 이상인 문항이었다. 8년 이상의 교육 경력이 있는 교사 2명이 학생 204명의 답안을 채점하고, GPT-4 기반의 ChatGPT의 채점 결과와 비교하였다. 문항별로 Few-Shot-CoT, SC, 구조화, 반복 프롬프트 기법 등을 활용하여 채점을 위한 프롬프트를 구성하였고, 이를 GPT-4 기반의 ChatGPT에 입력하여 채점하였다. 채점 결과, 문항 1, 2는 교사의 채점 결과와 GPT-4의 채점 결과 사이에 강한 상관관계를 충족하였다. 문제 해결 전략이 2가지인 문항 3은 먼저 채점 전 학생 답안을 문제 해결전략별로 분류하는 프롬프트를 GPT-4 기반의 ChatGPT에 입력하여 답안을 분류하였다. 이후 유형별로 채점 프롬프트를 적용하여 GPT-4 기반의 ChatGPT에 입력하여 채점하였고, 채점 결과 역시 교사의 채점 결과와 강한 상관관계가 나타났다. 이를 통해 프롬프트 엔지니어링을 활용한 GPT-4 모델이 교사의 채점을 보조할 수 있는 가능성을 확인하였으며 본 연구의 한계점 및 향후 연구 방향을 제시하였다.

대학입시 수능시험을 평가 도구로 적용한 ChatGPT의 학업 능력 분석 (Analysis of the scholastic capability of ChatGPT utilizing the Korean College Scholastic Ability Test)

  • 문혜림;김진혁;한경희;김시호
    • Journal of Platform Technology
    • /
    • 제11권5호
    • /
    • pp.72-83
    • /
    • 2023
  • ChatGPT는 2022년 하반기 상업적 서비스 시작 이후에 미국 변호사 자격시험과 의사 자격시험을 포함한 전문직 시험에서 성공적인 결과를 보였고, 전문직 영역에서 주관식 시험의 통과 능력을 입증하였으나, 교육 분야의 영역에서는 ChatGPT의 논리적 추론과 문제 풀이 등 학업 능력의 평가에 대해서도 새로운 실험과 분석이 필요하다. 본 연구에서는 한국 대학수학능력 시험 문제의 국어, 영어, 수학 세 주요 교과목을 활용하여 ChatGPT의 학업 능력을 평가하였다. 실험 결과에서는 ChatGPT는 영어 영역에서는 상대적으로 높은 69%의 정답률을 보이지만, 국어와 수학 영역에서는 각각 34%와 19%의 비교적 낮은 정답률을 기록하였다. 문장의 이해와 논리적 추론 능력에 관련된 수능 국어와 한국어 능력 시험 (TOPIK II) 및 수능 영어 시험의 결과 분석을 통하여, ChatGPT의 학업능력과 취약점의 원인을 분석하였다. ChatGPT는 대화형 언어 모델로 개발되었기 때문에 일반적인 국어, 영어, 수학 문제를 이해하고 응답하는 능력은 있지만, 난도가 높은 논리적 추론 능력과 수학 문제 풀이 능력에서는 매우 취약한 것으로 판단되었다. 본 연구는 생성형 인공지능의 성능 평가를 위한 간편하면서도 정확도가 높으며 효과적인 평가 기준을 마련하는 데에 큰 도움이 될 것으로 기대한다.

  • PDF

AI 기반 이미지 생성 기술의 농업 적용 가능성 (Agricultural Applicability of AI based Image Generation)

  • 윤승리;이예영;정은규;안태인
    • 생물환경조절학회지
    • /
    • 제33권2호
    • /
    • pp.120-128
    • /
    • 2024
  • 2022년 ChatGPT 출시 이후, 생성형 AI 산업은 엄청난 규모로 성장하였으며, 인지 작업에 혁신을 가져올 것으로 기대되고 있다. 특히 AI 기반 이미지 생성 기술은 현재 디지털 세계의 핵심적인 변화를 주도하고 있다. 본 연구는 대표적인 AI 이미지 생성 도구인 미드저니, 스테이블 디퓨전, 그리고 파이어플라이의 기술적 원리를 분석하고, 이미지 생성 결과를 비교함으로써 그 유용성을 평가하였다. 실험 결과, 이 AI 도구들은 대표 시설원예 작물인 토마토, 딸기, 파프리카, 오이의 과실 이미지를 실제와 유사하게 재현하였다. 특히 파이어플라이는 실제 온실 재배 작물 이미지를 매우 사실적으로 묘사하는 능력을 보여주었다. 그러나 모든 도구들은 작물이 자라는 온실의 환경적 맥락을 완전히 반영하는 데에 있어서 다소 한계를 보였다. 프롬프트 개선 및 레퍼런스 이미지를 활용하여 딸기과실 이미지와 시설 딸기재배 시스템을 보다 정교하게 생성하는 과정도 포함되었으며, 이러한 접근은 AI 이미지 생성 기술의 세밀한 조정이 가능함을 보여준다. 오이 과실 이미지 생성능력을 비교한 결과, AI 생성 도구들은 실제 이미지와 매우 유사한 이미지를 생성해 냄으로써 이미지 생성 점수(CLIP score)에 있어서 통계적 차이를 보이지 않았다. 본 연구는 AI 기반 이미지 생성 이미지 기술이 농업 분야에 활용될 수 있는 방안을 모색하며, 생성형 AI의 농업에 대한 적용을 긍정적으로 전망한다.