• Title/Summary/Keyword: Generative learning

검색결과 306건 처리시간 0.021초

Prompt engineering to improve the performance of teaching and learning materials Recommendation of Generative Artificial Intelligence

  • Soo-Hwan Lee;Ki-Sang Song
    • 한국컴퓨터정보학회논문지
    • /
    • 제28권8호
    • /
    • pp.195-204
    • /
    • 2023
  • 본 연구에서는 GPT, Stable Diffusion과 같은 생성형 인공지능을 이용한 교수·학습 자료 추천 성능 향상을 위해 프롬프트를 개선하는 프롬프트 엔지니어링에 대해 탐색하였다. 분석할 교수·학습 자료의 종류는 그림 자료이다. 프롬프트 구성에 따른 영향을 탐색하기 위해 명령만 담긴 Zero-Shot 프롬프트, 학습 대상 학년 정보가 담긴 프롬프트, 학습 목표가 담긴 프롬프트, 학습 대상 학년과 학습 목표가 모두 담긴 프롬프트를 설계하여 각각을 GPT-3.5모델에 입력하고 응답을 수집하였다. 수집한 응답을 Sentence Transformers로 임베딩 하고 t-SNE를 활용하여 차원 축소하여 시각화 한 다음 프롬프트와 응답 간의 관계를 탐색하였다. 그리고 각 응답을 k-means clustering algorithm을 활용하여 군집화 한 다음 가장 넓은 클러스터의 첫 번째 값을 대표로 선택하여 Stable Diffusion을 이용하여 이미지화 한 다음 교수·학습자료 평가 기준에 따라 초등학교 교사 30명에게 평가 받았다. 초등학교 교사 30인은 추천한 4종의 그림 자료 중 3종은 교육적 가치가 있다고 판단하였으며, 그 중 2종은 실제 수업에 사용할 수 있다고 하였다. 가장 가치 있는 그림 자료를 추천한 프롬프트는 대상 학년과 학습 목표가 모두 담긴 프롬프트로 나타났다.

생성형 인공지능을 활용한 프로그래밍 교육 소프트웨어 개발 (Developing Programming Education Software with Generative AI)

  • 최도현
    • 실천공학교육논문지
    • /
    • 제15권3호
    • /
    • pp.589-595
    • /
    • 2023
  • 인공지능 기술은 기술과 교육을 조합한 에듀테크(EdTech) 분야에서 효율적인 교육 콘텐츠 제공과 개인화된 학습자 환경을 구축 등 새로운 혁신을 이끌고 있다. 본 연구는 최근 발전된 생성형 AI를 활용한 프로그래밍 교육 소프트웨어를 개발한다. 최근 잘 알려진 ChatGPT API 기반으로 프로그래밍 코드 분석에 최적화된 프롬프트를 연동했다. 이외 프로그래밍 소스 코드 학습에 필요한 기능을 UI로 설계하고 AI 챗봇 기반의 질의/응답 템플릿 기능으로 개발하였다. 본 연구는 생성형 인공지능을 활용한 교육 프로그램 개발의 방향성을 제시하고자 한다.

이미지 생성을 위해 노이즈를 이용한 GAN 시스템 (GAN System Using Noise for Image Generation)

  • 배상중;김민규;정회경
    • 한국정보통신학회논문지
    • /
    • 제24권6호
    • /
    • pp.700-705
    • /
    • 2020
  • 생성적 적대 신경망(GAN, Generative Adversarial Network)은 두 개의 신경망을 대립하여 이미지를 생성하는 방법이다. 이미지를 생성할 때 랜덤으로 생성한 노이즈를 재배열하여 이미지를 생성하는데 이러한 방법으로 생성된 이미지는 노이즈에 따라 생성이 잘 이루어지지 않고, 이미지의 픽셀이 적은 경우 제대로 된 이미지를 생성하기 어렵다는 문제점이 발생할 수 있다. 또한 데이터 분류에서 데이터가 쌓이는 속도와 크기가 증가되는데 이들을 라벨링하는 데는 많은 어려움이 있다. 본 논문에서는 이를 해결하기 위해 랜덤으로 생성하던 노이즈에 실제 데이터를 사용하여 노이즈를 생성하고 이를 기반으로 이미지를 생성하는 기법을 제안한다. 제안하는 시스템은 기존에 있는 이미지를 기반으로 하는 이미지를 생성하는 것이므로 좀 더 자연스러운 이미지의 생성이 가능하다는 것을 확인하였고 이를 학습에 이용할 경우 기존의 생성적 적대 신경망을 사용한 방법보다 더 높은 적중률을 보임을 확인하였다.

시계열 생성적 적대 신경망을 이용한 비행체 궤적 합성 데이터 생성 및 비행체 궤적 예측에서의 활용에 관한 연구 (A Study on Synthetic Flight Vehicle Trajectory Data Generation Using Time-series Generative Adversarial Network and Its Application to Trajectory Prediction of Flight Vehicles)

  • 박인희;이창진;정찬호
    • 전기전자학회논문지
    • /
    • 제25권4호
    • /
    • pp.766-769
    • /
    • 2021
  • 딥러닝을 포함한 머신러닝 기법을 기반으로 비행체의 궤적 설계, 제어, 최적화, 예측 등의 작업을 수행하기 위해서는 일정한 양 이상의 비행체 궤적 데이터를 필요로 한다. 그러나 다양한 이유(예를 들어 비행체 궤적 데이터셋 구축에 필요한 비용, 시간, 인력 등)로 일정한 양 이상의 비행체 궤적 데이터를 확보하기 어려운 경우가 존재한다. 이러한 경우 합성 데이터 생성이 머신러닝을 가능하게 하는 방법 중 하나가 될 수 있다. 본 논문에서는 이와 같은 가능성을 탐구하기 위하여 시계열 생성적 적대 신경망을 이용하여 비행체 궤적 합성 데이터를 생성하고 평가하였다. 또한 비행체의 상태를 인식하기 위한 비행체 궤적 예측 작업에서 합성 데이터의 활용 가능성을 탐구하기 위하여 다양한 ablation study(비교 실험)를 수행하였다. 본 논문에서 제시된 생성 평가 및 비교 실험 결과는 비행체 궤적 합성 데이터 생성 및 비행체 궤적 관련 작업에서 합성 데이터의 활용 가능성에 대한 연구를 수행하고자 하는 연구자들에게 실질적인 도움이 될 것으로 예상한다.

Audio Generative AI Usage Pattern Analysis by the Exploratory Study on the Participatory Assessment Process

  • Hanjin Lee;Yeeun Lee
    • 한국컴퓨터정보학회논문지
    • /
    • 제29권4호
    • /
    • pp.47-54
    • /
    • 2024
  • 첨단기술을 활용한 문화예술 교육은 기술에 대한 문해력 향상과 자기표현, 그리고 융합적 역량 개발의 측면에서 그 중요성이 증대되고 있다. 이에 혁신적인 멀티모달 AI의 생성과정과 결과평가는 확대된 시청각 경험을 제공하고 창의적 영감을 향상할 수 있다. 특히, AI와 함께 음악을 만드는 과정은 멜로디와 악상을 떠올리는 것부터 가사 개선, 편집과 변주, 악기 연주 등 모든 영역에 걸쳐 혁신적 경험을 제공한다. 이에 본 연구에서는 음악 생성 AI 플랫폼을 활용하여 과제를 수행하고 동료 학습자와 토론하는 과정을 실증적으로 분석하고자 하였다. 그 결과 자발적 참여를 통해 12개의 서비스와 10개의 평가기준 유형을 수집하여 사용패턴과 목적으로 구분할 수 있었다. 이를 토대로 학습자 관점의 AI 기반 교양교육을 위한 학술적, 기술적, 정책적 시사점을 제시하였다.

Enhanced ACGAN based on Progressive Step Training and Weight Transfer

  • Jinmo Byeon;Inshil Doh;Dana Yang
    • 한국컴퓨터정보학회논문지
    • /
    • 제29권3호
    • /
    • pp.11-20
    • /
    • 2024
  • AI(Artificial Intelligence)의 다양한 모델 중 생성 모델, 특히 GAN(Generative Adversarial Network)은 이미지 처리, 밀도 추정, 스타일 전이 등 다양한 응용 분야에서 성공을 거두었다. 이러한 GAN은 CGAN(Conditional GAN), CycleGAN, BigGAN 등의 방식으로 확장 및 개선되었지만 재난 시뮬레이션, 의료 분야, 도시 계획 등 특정 분야에서는 데이터 부족과 불안정한 학습에 의한 이미지 왜곡 문제로 실제 시스템 적용에 문제가 되고 있다. 본 논문에서는 클래스 항목을 판별하는 ACGAN(Auxiliary Classifier GAN) 구조를 기반으로 기존 PGGAN(Progressive Growing of GAN)의 점진적 학습 방식을 활용한 새로운 점진적 단계의 학습 방법론 PST(Progressive Step Training)를 제안한다. PST 모델은 기존 방법 대비 70.82% 빠른 안정화, 51.3% 낮은 표준 편차, 후반 고해상도의 안정적 손실값 수렴 그리고 94.6% 빠른 손실 감소를 달성한다.

적대적 생성 신경망과 딥러닝을 이용한 교량 상판의 균열 감지 (Crack Detection on Bridge Deck Using Generative Adversarial Networks and Deep Learning)

  • 지봉준
    • 한국건설순환자원학회논문집
    • /
    • 제9권3호
    • /
    • pp.303-310
    • /
    • 2021
  • 교량의 균열은 교량의 상태를 나타내는 중요한 요소이며 주기적인 모니터링 대상이다. 그러나 전문가가 육안으로 점검하는 것은 비용, 시간, 신뢰성 면에서 문제가 있다. 따라서 최근에는 이러한 문제를 극복하기 위해 자동화 가능한 딥러닝 모델을 적용하기 위한 연구가 시작되었다. 딥러닝 모델은 예측할 상황에 대한 충분한 데이터가 필요하지만 교량 균열 데이터는 상대적으로 얻기가 어렵다. 특히 교량의 설계, 위치, 공법에 따라 교량 균열의 형상이 달라질 수 있어 특정 상황에서 많은 양의 균열 데이터를 수집하기 어려움이 따른다. 본 연구에서는 적대적 생성 신경망(Generative Adversarial Network, GAN)을 통해 불충분한 균열 데이터를 생성하고 학습하는 균열 탐지 모델을 개발했다. 본 연구에서는 GAN을 이용하여 주어진 균열 데이터와 통계적으로 유사한 데이터를 성공적으로 생성했으며, 생성된 이미지를 사용하지 않을 때보다 생성된 이미지를 사용할 때 약 3% 더 높은 정확도로 균열 감지가 가능했다. 이러한 접근 방식은 교량의 균열 검출이 필요하지만 균열 데이터는 충분하지 않거나 하나의 클래스에 대한 데이터가 상대적으로 적을 때 감지 모델의 성능을 효과적으로 향상시킬 것으로 기대된다.

딥 러닝 기반의 가짜 얼굴 검출 (Deep Learning Based Fake Face Detection)

  • 김대희;최승완;곽수영
    • 한국산업정보학회논문지
    • /
    • 제23권5호
    • /
    • pp.9-17
    • /
    • 2018
  • 최근 바이오인식 기술이 대중화됨에 따라 위 변조에 대응하는 연구 및 시도들이 많이 진행되고 있다. 본 논문에서 인공지능으로 만든 합성된 얼굴을 진짜 얼굴인지 합성된 가짜 얼굴인지를 판별하는 방법을 제안하고자 한다. 제안하는 알고리즘은 크게 2가지 단계로 구성되어 있다. 먼저, 실제 얼굴 사진에 여러 가지 GAN(Generative Adversarial Networks)알고리즘을 통해 합성된 가짜 얼굴을 생성하게 된다. 이후, 실제 얼굴 영상과 생성된 얼굴 영상을 딥러닝 알고리즘에 입력하여 진짜 또는 가짜인지 판별하도록 한다. 제안한 알고리즘은 실제 육안으로도 구별하기 어려운 합성 영상도 잘 구분하고, 테스트 결과 88.7%의 정확도를 확인하였다.

DCGAN을 이용한 잡육에서의 바늘 검출 (Detection of Needle in trimmings or meat offals using DCGAN)

  • 장원재;차윤석;금예은;이예진;김정도
    • 센서학회지
    • /
    • 제30권5호
    • /
    • pp.300-308
    • /
    • 2021
  • Usually, during slaughter, the meat is divided into large chunks by part after deboning. The meat chunks are inspected for the presence of needles with an X-ray scanner. Although needles in the meat chunks are easily detectable, they can also be found in trimmings and meat offals, where meat skins, fat chunks, and pieces of meat from different parts get agglomerated. Detection of needles in trimmings and meat offals becomes challenging because of many needle-like patterns that are detected by the X-ray scanner. This problem can be solved by learning the trimmings or meat offals using deep learning. However, it is not easy to collect a large number of learning patterns in trimmings or meat offals. In this study, we demonstrate the use of deep convolutional generative adversarial network (DCGAN) to create fake images of trimmings or meat offals and train them using a convolution neural network (CNN).

Generation of contrast enhanced computed tomography image using deep learning network

  • Woo, Sang-Keun
    • 한국컴퓨터정보학회논문지
    • /
    • 제24권3호
    • /
    • pp.41-47
    • /
    • 2019
  • In this paper, we propose a application of conditional generative adversarial network (cGAN) for generation of contrast enhanced computed tomography (CT) image. Two types of CT data which were the enhanced and non-enhanced were used and applied by the histogram equalization for adjusting image intensities. In order to validate the generation of contrast enhanced CT data, the structural similarity index measurement (SSIM) was performed. Prepared generated contrast CT data were analyzed the statistical analysis using paired sample t-test. In order to apply the optimized algorithm for the lymph node cancer, they were calculated by short to long axis ratio (S/L) method. In the case of the model trained with CT data and their histogram equalized SSIM were $0.905{\pm}0.048$ and $0.908{\pm}0.047$. The tumor S/L of generated contrast enhanced CT data were validated similar to the ground truth when they were compared to scanned contrast enhanced CT data. It is expected that advantages of Generated contrast enhanced CT data based on deep learning are a cost-effective and less radiation exposure as well as further anatomical information with non-enhanced CT data.