• 제목/요약/키워드: AI generated images

검색결과 48건 처리시간 0.022초

패션디자인을 위한 AI 생성 이미지 색상 비교 연구 -미드저니의 활용을 중심으로- (A Study on the Color of AI-Generated Images for Fashion Design -Focused on the Use of Midjourney)

  • 박근수
    • 문화기술의 융합
    • /
    • 제10권2호
    • /
    • pp.343-348
    • /
    • 2024
  • 오늘날 AI 이미지 생성 프로그램은 패션 상품 광고, 맞춤형 패션 스타일 제안, 디자인 개발 등 패션 산업 분야의 세분화된 목적에 알맞게 개발되고 있다. 한편 색상은 강력한 조형 요소로서 상품이나 패션 스타일 제안을 위한 이미지 표현에 중요한 역할을 한다. 본 연구는 AI 이미지 생성 도구 중에서 미드저니를 사용하여 생성한 의상 이미지에 나타나는 색상과 배색 관계에 중점을 두어 그 특징을 파악함으로써 미드저니의 활용에 대한 이해를 넓히고자 한다. 본 연구의 결과는 다음과 같다. 첫째, 미드저니에서 생성한 초기의 이미지는 명령어에 지시한 색상보다 이미지 생성을 위하여 사용한 기존의 이미지 색상에 더 의존적으로 반영되어 나타난다. 둘째, 미드저니에서 생성된 이미지의 의상에 나타난 배색의 특징은 의상의 구조에 따라 구분되는 부위별로 다른 색상이 표현된 분리배색과 의상의 한 부위에 다른 색상들이 무늬 형태로 표현된 혼합배색이 생성된다. 분리배색에 표현된 색상들의 비율은 명령어에 지시한 색상 순서의 영향을 받는다. 혼합배색에 조합되어 나타난 색상 수는 미드저니에서 이미지 생성을 위하여 사용한 기존의 이미지 속 의상의 색상 수와 명령어에 지시한 색상 수의 총합보다 적은 수의 색상으로 조합되어 나타난다. 셋째, 미드저니는 생성하는 이미지의 배경도 색상 표현을 위한 대상으로 인식하며 이에 따른 배경색의 변화는 이미지 속의 의상에 대한 사용자의 색지각과 의상 이미지 형성에 영향을 미칠 수 있으므로 주의가 필요하다. 본 연구 결과가 패션디자인 교육과 실무에 있어 미드저니에서 생성되는 이미지의 색상 배색에 대한 이해를 넓히고 이를 통하여 미드저니의 활용에 도움이 되기를 기대한다.

Transforming Text into Video: A Proposed Methodology for Video Production Using the VQGAN-CLIP Image Generative AI Model

  • SukChang Lee
    • International Journal of Advanced Culture Technology
    • /
    • 제11권3호
    • /
    • pp.225-230
    • /
    • 2023
  • With the development of AI technology, there is a growing discussion about Text-to-Image Generative AI. We presented a Generative AI video production method and delineated a methodology for the production of personalized AI-generated videos with the objective of broadening the landscape of the video domain. And we meticulously examined the procedural steps involved in AI-driven video production and directly implemented a video creation approach utilizing the VQGAN-CLIP model. The outcomes produced by the VQGAN-CLIP model exhibited a relatively moderate resolution and frame rate, and predominantly manifested as abstract images. Such characteristics indicated potential applicability in OTT-based video content or the realm of visual arts. It is anticipated that AI-driven video production techniques will see heightened utilization in forthcoming endeavors.

A Feasibility Study on RUNWAY GEN-2 for Generating Realistic Style Images

  • Yifan Cui;Xinyi Shan;Jeanhun Chung
    • International Journal of Internet, Broadcasting and Communication
    • /
    • 제16권1호
    • /
    • pp.99-105
    • /
    • 2024
  • Runway released an updated version, Gen-2, in March 2023, which introduced new features that are different from Gen-1: it can convert text and images into videos, or convert text and images together into video images based on text instructions. This update will be officially open to the public in June 2023, so more people can enjoy and use their creativity. With this new feature, users can easily transform text and images into impressive video creations. However, as with all new technologies, comes the instability of AI, which also affects the results generated by Runway. This article verifies the feasibility of using Runway to generate the desired video from several aspects through personal practice. In practice, I discovered Runway generation problems and propose improvement methods to find ways to improve the accuracy of Runway generation. And found that although the instability of AI is a factor that needs attention, through careful adjustment and testing, users can still make full use of this feature and create stunning video works. This update marks the beginning of a more innovative and diverse future for the digital creative field.

A Design and Implementation of Generative AI-based Advertising Image Production Service Application

  • Chang Hee Ok;Hyun Sung Lee;Min Soo Jeong;Yu Jin Jeong;Ji An Choi;Young-Bok Cho;Won Joo Lee
    • 한국컴퓨터정보학회논문지
    • /
    • 제29권5호
    • /
    • pp.31-38
    • /
    • 2024
  • 본 논문에서는 생성형 AI 기반의 광고 이미지 자동 제작 서비스를 제공하는 ASAP(AI-driven Service for Advertisement Production) 애플리케이션을 제안한다. 이 애플리케이션은 GPT-3.5 Turbo Instruct를 이용하여 사용자가 입력한 키워드에 적합한 배경 분위기와 홍보 문구를 생성한다. 이를 입력으로 하여 배경 이미지와 텍스트 이미지를 생성하기 위해 OpenAI사의 DALL·E 3 모델과 Stability AI사의 SDXL 모델을 활용한다. 추가적으로 OCR 기술을 활용하여 텍스트 이미지의 정확도를 높이고, 생성된 출력물들을 모두 합성하여 최종적인 광고를 제작한다. 또한 PILLOW, OpenCV 라이브러리의 텍스트 박스를 이용하여 전화번호, 영업시간 등 세부 사항을 홍보물의 가장자리에 삽입할 수 있도록 구현한다. 본 애플리케이션은 광고 제작에 어려움이 많은 소상공인들에게 광고를 쉽고 편리하게 제작할 수 있고, 광고 제작 비용을 절감할 수 있는 효과를 제공한다.

인공지능 생성 이미지와 예술가의 작품의 미학적 가치와 감정적 차이에 대한 연구 (A Study on the Aesthetic Value and Emotional Differences between AI-Generated Images and Artists' Works)

  • 김민규;박재완
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2024년도 춘계학술발표대회
    • /
    • pp.627-630
    • /
    • 2024
  • 본 연구는 인공지능(AI)과 인간이 만든 예술작품 사이의 나타나는 기술적 요소에서 나타나는 차이점 탐구를 통해, 인공지능 예술의 특성, 가능성, 한계를 파악하고, 예술가의 역할에 대한 심층적 이해를 도모하는 것을 목적으로 한다. 연구 결과는 AI 생성 예술이 인간 예술과 경쟁할 수 있으며, 일반 대중 사이에서 높은 미학적 가치를 인정받을 수 있음을 나타냈다. 또한 AI 가 예술창작에서 중요한 역할을 할 수 있음을 나타냈다. 본 연구는 예술계 내에서 AI 예술의 위치와 사회적 수용에 대한 더 깊은 이해를 제공할 것으로 기대된다.

Generation of He I 1083 nm Images from SDO/AIA 19.3 and 30.4 nm Images by Deep Learning

  • Son, Jihyeon;Cha, Junghun;Moon, Yong-Jae;Lee, Harim;Park, Eunsu;Shin, Gyungin;Jeong, Hyun-Jin
    • 천문학회보
    • /
    • 제46권1호
    • /
    • pp.41.2-41.2
    • /
    • 2021
  • In this study, we generate He I 1083 nm images from Solar Dynamic Observatory (SDO)/Atmospheric Imaging Assembly (AIA) images using a novel deep learning method (pix2pixHD) based on conditional Generative Adversarial Networks (cGAN). He I 1083 nm images from National Solar Observatory (NSO)/Synoptic Optical Long-term Investigations of the Sun (SOLIS) are used as target data. We make three models: single input SDO/AIA 19.3 nm image for Model I, single input 30.4 nm image for Model II, and double input (19.3 and 30.4 nm) images for Model III. We use data from 2010 October to 2015 July except for June and December for training and the remaining one for test. Major results of our study are as follows. First, the models successfully generate He I 1083 nm images with high correlations. Second, the model with two input images shows better results than those with one input image in terms of metrics such as correlation coefficient (CC) and root mean squared error (RMSE). CC and RMSE between real and AI-generated ones for the model III with 4 by 4 binnings are 0.84 and 11.80, respectively. Third, AI-generated images show well observational features such as active regions, filaments, and coronal holes. This work is meaningful in that our model can produce He I 1083 nm images with higher cadence without data gaps, which would be useful for studying the time evolution of chromosphere and coronal holes.

  • PDF

생성적 적대 신경망(Generative Adversarial Network)을 이용하여 획득한 18F-FDG Brain PET/CT 인공지능 영상의 비교평가 (Comparative Evaluation of 18F-FDG Brain PET/CT AI Images Obtained Using Generative Adversarial Network)

  • 김종완;김정열;임한상;김재삼
    • 핵의학기술
    • /
    • 제24권1호
    • /
    • pp.15-19
    • /
    • 2020
  • 본 연구는 최근에 활발히 연구되고 있는 딥러닝 기술인 생성적 적대 신경망(GAN)을 핵의학 영상에 적용하여 잠재적으로 유용성이 있는지 확인해보고자 하였다. 본원에서 18F-FDG Brain PET/CT검사를 진행한 30명의 환자를 대상으로 하였고 List모드로 15분 검사한 후 이를 1, 2, 3, 4, 5분 초기획득시간 이미지로 재구성하였다. 이 중 25명의 환자를 GAN모델의 학습을 위한 트레이닝 이미지로 사용하고 5명의 환자를 학습된 GAN모델의 검증을 위한 테스트 이미지로 사용하였다. 학습된 GAN모델에 입력으로 1, 2, 3, 4, 5분의 초기획득 이미지를 넣고 출력으로 15분 인공지능 표준획득 이미지를 획득한 후 이를 기존의 15분 표준획득시간 검사 이미지와 비교 평가하였다. 평가에는 정량화된 이미지 평가방법인 평균제곱오차, 최대신호 대 잡음비, 구조적 유사도 지수를 이용하였다. 평가 결과 초기획득시간 이미지에서 1에서 5분으로 갈수록 실제 표준획득시간 이미지에 가까운 평균제곱오차, 최대신호 대 잡음비, 구조적 유사도 지수 수치를 나타내었다. 이러한 연구를 통해 앞으로 인공지능 기술이 핵의학 분야에서 의료영상의 획득시간 단축과 관련하여 중요한 영향을 미칠 수 있을 것으로 사료된다.

Preliminary Application of Synthetic Computed Tomography Image Generation from Magnetic Resonance Image Using Deep-Learning in Breast Cancer Patients

  • Jeon, Wan;An, Hyun Joon;Kim, Jung-in;Park, Jong Min;Kim, Hyoungnyoun;Shin, Kyung Hwan;Chie, Eui Kyu
    • Journal of Radiation Protection and Research
    • /
    • 제44권4호
    • /
    • pp.149-155
    • /
    • 2019
  • Background: Magnetic resonance (MR) image guided radiation therapy system, enables real time MR guided radiotherapy (RT) without additional radiation exposure to patients during treatment. However, MR image lacks electron density information required for dose calculation. Image fusion algorithm with deformable registration between MR and computed tomography (CT) was developed to solve this issue. However, delivered dose may be different due to volumetric changes during image registration process. In this respect, synthetic CT generated from the MR image would provide more accurate information required for the real time RT. Materials and Methods: We analyzed 1,209 MR images from 16 patients who underwent MR guided RT. Structures were divided into five tissue types, air, lung, fat, soft tissue and bone, according to the Hounsfield unit of deformed CT. Using the deep learning model (U-NET model), synthetic CT images were generated from the MR images acquired during RT. This synthetic CT images were compared to deformed CT generated using the deformable registration. Pixel-to-pixel match was conducted to compare the synthetic and deformed CT images. Results and Discussion: In two test image sets, average pixel match rate per section was more than 70% (67.9 to 80.3% and 60.1 to 79%; synthetic CT pixel/deformed planning CT pixel) and the average pixel match rate in the entire patient image set was 69.8%. Conclusion: The synthetic CT generated from the MR images were comparable to deformed CT, suggesting possible use for real time RT. Deep learning model may further improve match rate of synthetic CT with larger MR imaging data.

메타버스와 AI 추천서비스를 활용한 국내 대표 키오스크 사용서비스 안내 개발 (Using Metaverse and AI recommendation services Development of Korea's leading kiosk usage service guide)

  • 최수현;이민정;박진서;서연호;문재현
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2023년도 추계학술발표대회
    • /
    • pp.886-887
    • /
    • 2023
  • This paper is about the development of kiosks that provide four types of service. Simple UI and educational videos solve the complexity of existing kiosks and provide an intuitive and convenient screen to users. In addition, the AR function, which is a three-dimensional form, shows directions and store representative images. After storing user information in the DB, a learning model is generated using user-based KNN collaborative filtering to provide a recommendation menu. As a result, it is possible to increase user convenience through kiosks using metaverse and AI recommendation services. It is also expected to solve digital alienation of social classes who have difficulty using kiosks.

이미지 생성형 AI의 창작 과정 분석을 통한 사용자 경험 연구: 사용자의 창작 주체감을 중심으로 (A Study on User Experience through Analysis of the Creative Process of Using Image Generative AI: Focusing on User Agency in Creativity)

  • 한다은;최다혜;오창훈
    • 문화기술의 융합
    • /
    • 제9권4호
    • /
    • pp.667-679
    • /
    • 2023
  • 이미지 생성형 AI의 등장으로 미술, 디자인 전문가가 아니어도 텍스트 입력을 통해 완성도 높은 그림 작품을 만들 수 있게 되었다. 생성 이미지의 활용 가능성과 예술 산업에 미치는 영향력이 높아짐에 따라 사용자가 AI와 공동 창작하는 과정을 어떻게 인식하는지에 대해 연구 필요성이 제기되고 있다. 이에 본 연구에서는 일반 사용자들을 대상으로 이미지 생성형 AI 창작에 대한 예상 과정과 체감 과정을 알아보고 어떤 과정이 사용자의 창작 주체감에 영향을 미치는지 알아보는 실험 연구를 진행하였다. 연구 결과 사용자들이 기대한 창작 과정과 체감한 창작 과정 간 격차가 있는 것으로 나타났으며 창작 주체감은 낮게 인식하는 경향을 보였다. 이에 AI가 사용자의 창작 의도를 지원하는 조력자의 역할로 작용하여 사용자가 높은 창작 주체감을 경험할 수 있도록 8가지 방법을 제언한다. 본 연구를 통해 사용자 중심적인 창작 경험을 고려하여 향후 이미지 생성형 AI의 발전에 기여할 수 있다.