• 제목/요약/키워드: Facial image

검색결과 834건 처리시간 0.037초

얼굴뼈 골절의 진단과 치료에 64채널 3D VCT와 Conventional 3D CT의 비교 (Comparison of 64 Channel 3 Dimensional Volume CT with Conventional 3D CT in the Diagnosis and Treatment of Facial Bone Fractures)

  • 정종명;김종환;홍인표;최치훈
    • Archives of Plastic Surgery
    • /
    • 제34권5호
    • /
    • pp.605-610
    • /
    • 2007
  • Purpose: Facial trauma is increasing along with increasing popularity in sports, and increasing exposure to crimes or traffic accidents. Compared to the 3D CT of 1990s, the latest CT has made significant improvement thus resulting in higher accuracy of diagnosis. The objective of this study is to compare 64 channel 3 dimensional volume CT(3D VCT) with conventional 3D CT in the diagnosis and treatment of facial bone fractures. Methods: 45 patients with facial trauma were examined by 3D VCT from Jan. 2006 to Feb. 2007. 64 channel 3D VCT which consists of 64 detectors produce axial images of 0.625 mm slice and it scans 175 mm per second. These images are transformed into 3 dimensional image using software Rapidia 2.8. The axial image is reconstructed into 3 dimensional image by volume rendering method. The image is also reconstructed into coronal or sagittal image by multiplanar reformatting method. Results: Contrasting to the previous 3D CT which formulates 3D images by taking axial images of 1-2 mm, 64 channel 3D VCT takes 0.625 mm thin axial images to obtain full images without definite step ladder appearance. 64 channel 3D VCT is effective in diagnosis of thin linear bone fracture, depth and degree of fracture deviation. Conclusion: In its expense and speed, 3D VCT is superior to conventional 3D CT. Owing to its ability to reconstruct full images regardless of the direction using 2 times higher resolution power and 4 times higher speed of the previous 3D CT, 3D VCT allows for accurate evaluation of the exact site and deviation of fine fractures.

다중 체온 감지용 지능형 카메라 개발 (Development of an intelligent camera for multiple body temperature detection)

  • 이수인;김윤수;석종원
    • 전기전자학회논문지
    • /
    • 제26권3호
    • /
    • pp.430-436
    • /
    • 2022
  • 본 논문에서는 다중 체온 감지용 지능형 카메라를 제안한다. 제안하는 카메라는 광학(4056*3040) 및 열화상(640*480) 2종의 카메라로 구성되고 획득된 영상으로부터 사람의 표정 및 체온을 분석하여 이상 증상을 감지한다. 광학 및 열화상카메라는 동시에 운영되며 광학 영상에서 객체를 검출한 후 얼굴영역을 도출하여 표정분석을 수행한다. 열화상카메라는 광학카메라에서 얼굴영역으로 판단한 좌표 값을 적용하고 해당영역의 최고 온도를 측정하여 화면에 표출한다. 이상 징후 감지는 분석된 표정 3가지(무표정, 웃음, 슬픔)와 체온 값을 활용하여 판단하며 제안된 장비의 성능을 평가하기 위해 광학영상 처리부는 Caltech, WIDER FACE, CK+ 데이터셋을 3종의 영상처리 알고리즘(객체검출, 얼굴영역 검출, 표정분석)에 적용하였다. 실험결과로 객체검출률, 얼굴영역 검출률, 표정분석률 각각 91%, 91%, 84%을 도출하였다.

Facial Feature Based Image-to-Image Translation Method

  • Kang, Shinjin
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제14권12호
    • /
    • pp.4835-4848
    • /
    • 2020
  • The recent expansion of the digital content market is increasing the technical demand for various facial image transformations within the virtual environment. The recent image translation technology enables changes between various domains. However, current image-to-image translation techniques do not provide stable performance through unsupervised learning, especially for shape learning in the face transition field. This is because the face is a highly sensitive feature, and the quality of the resulting image is significantly affected, especially if the transitions in the eyes, nose, and mouth are not effectively performed. We herein propose a new unsupervised method that can transform an in-wild face image into another face style through radical transformation. Specifically, the proposed method applies two face-specific feature loss functions for a generative adversarial network. The proposed technique shows that stable domain conversion to other domains is possible while maintaining the image characteristics in the eyes, nose, and mouth.

화상전송 서비스를 위한 객체 분할 및 지식 기반 얼굴 특징 검출 (Object Segmentation for Image Transmission Services and Facial Characteristic Detection based on Knowledge)

  • 임춘환;양홍영
    • 전자공학회논문지T
    • /
    • 제36T권3호
    • /
    • pp.26-31
    • /
    • 1999
  • 이 논문에서는 영상통신을 위한 객체 분할 알고리즘과 지식기반 얼굴 특징 검출 알고리즘을 제안한다. 이를 위해 일정한 조도 상태에서 비디오 카메라로부터 동일거리에서 256×256 크기의 그레이 스케일 256 레벨로 두장의 영상을 취득한 후 가우시안 필터를 이용하여 영상 내에 존재하는 잡음을 제거한다. 취득된 두 입력영상은 비디오가 가리키고 있는 배경영상과 배경영상 내에 사람이 포함된 경우의 영상이다. 그리고 배경 영상과 얼굴이 포함된 입력 영상의 차를 구한다. 다음으로 차영상에 대해 축소와 팽창 과정을 통해 얼굴영역 내의 잡음을 제거한 후 좌, 우에서 픽셀 값을 조사하여 마스크를 생성한다. 그리고 마스크를 얼굴이 존재하는 원 영상에 투영하여 배경에서 얼굴영역을 분할한 후 얼굴영역의 에지성분을 조사하여 눈, 코, 귀, 입을 분할한다 시뮬레이션 결과를 통하여 제안된 알고리즘의 효율성을 입증한다.

  • PDF

얼굴 랜드마크의 들로네 삼각망을 이용한 얼굴 모핑 기법 (A Facial Morphing Method Using Delaunay Triangle of Facial Landmarks)

  • 박경남
    • 디지털콘텐츠학회 논문지
    • /
    • 제19권1호
    • /
    • pp.213-220
    • /
    • 2018
  • 얼굴 모핑은 원본 이미지에서 목표 이미지로 점진적이면서 자연스럽게 영상을 변화시키는 기법으로 영상처리와 그래픽 분야에서 자주 사용되는 강력한 영상처리 기술 중의 하나이다. 본 논문에서는 Dlib 얼굴 랜드마크 검출기를 이용하여 생성된 얼굴 랜드마크 정점들을 이용하여 들로네 삼각망을 생성하고 원본 영상에서 목표영상으로의 들로네 삼각망들의 와핑과 크로스 디졸브를 통해 모핑을 구현하는 방법을 제안하였다. 본 논문에서 제안한 방법은 들로네 삼각망을 생성하기 위한 정점들을 수동으로 만들어 주는 것이 아니라, 얼굴 모핑에서 얼굴의 주요한 부분인 눈, 눈썹, 코, 입 등의 얼굴의 주요 특징점이라 할 수 있는 얼굴 랜드마크들을 이용함으로써 자동으로 들로네 삼각망을 생성할 수 있다는 것이 특징이다. 그리고 수동으로 정점을 추가할 수도 있어 더욱 자연스러운 모핑 결과를 얻을 수 있을 수 있다는 것을 시뮬레이션을 통해 확인하였다.

컨볼루션 오토인코더를 이용한 마스크 착용 얼굴 이미지 생성 (Generation of Masked Face Image Using Deep Convolutional Autoencoder)

  • 이승호
    • 한국정보통신학회논문지
    • /
    • 제26권8호
    • /
    • pp.1136-1141
    • /
    • 2022
  • 코로나19 팬데믹으로 인해 마스크 착용이 일상화되면서 마스크 착용 얼굴을 식별하는 얼굴인식 연구에 대한 중요도가 높아지고 있다. 안정된 얼굴인식 성능을 위해서는 인식 대상에 대한 풍부한 학습용 이미지 확보가 필요하지만 인물 별로 마스크 착용 얼굴 이미지를 다량 확보하는 것은 쉽지 않다. 본 논문에서는 마스크 미착용 얼굴 이미지에 가상의 마스크 패턴을 합성하는 새로운 방법을 제안한다. 제안 방법은 동일 인물에 대해 마스크 미착용 얼굴 이미지와 마스크 착용 얼굴 이미지를 쌍으로 컨볼루션 오토인코더에 입력하여 얼굴과 마스크의 기하학적 관계를 학습한다. 학습이 완료된 컨볼루션 오토인코더는 학습에 사용되지 않은 새로운 마스크 미착용 얼굴 이미지에 가상의 마스크 패턴을 자연스러운 형태로 합성해준다. 제안 방법은 고속으로 대량의 마스크 착용 얼굴 이미지를 생성할 수 있으며, 얼굴 특징점 추출에 기반하는 마스크 합성 방법에 비해 실용적이다.

에이다부스트와 신경망 조합을 이용한 표정인식 (Facial Expression Recognition by Combining Adaboost and Neural Network Algorithms)

  • 홍용희;한영준;한헌수
    • 한국지능시스템학회논문지
    • /
    • 제20권6호
    • /
    • pp.806-813
    • /
    • 2010
  • 표정은 사람의 감정을 표현하는 대표적인 수단이다. 이러한 이유로 표정은 사람의 의도를 컴퓨터에 전하는데 효과적인 방법으로 사용될 수 있다. 본 논문에서는 2D 영상에서 사람의 표정을 보다 빠르고 정확하게 인식하기 위해 Discrete Adaboost 알고리즘과 신경망 알고리즘을 통합하는 방법을 제안한다. 1차로 Adaboost 알고리즘으로 영상에서 얼굴의 위치와 크기를 찾고, 2차로 표정별로 학습된 Adaboost 강분류기를 이용하여 표정별 출력 값을 얻으며, 이를 마지막으로 Adaboost 강분류기 값으로 학습된 신경망 알고리즘의 입력으로 이용하여 최종 표정을 인식한다. 제안하는 방법은 실시간이 보장된 Adaboost 알고리즘의 특성과 정확성을 개선하는 신경망 기반 인식기의 신뢰성을 적절히 활용함으로서 전체 인식기의 실시간성을 확보하면서도 정확성을 향상시킨다. 본 논문에서 구현된 알고리즘은 평온, 행복, 슬픔, 화남, 놀람의 5가지 표정에 대해 평균 86~95%의 정확도로 실시간 인식이 가능하다.

인터랙티브 미디어 플랫폼 콕스에 제공될 4가지 얼굴 변형 기술의 비교분석 (Comparison Analysis of Four Face Swapping Models for Interactive Media Platform COX)

  • 전호범;고현관;이선경;송복득;김채규;권기룡
    • 한국멀티미디어학회논문지
    • /
    • 제22권5호
    • /
    • pp.535-546
    • /
    • 2019
  • Recently, there have been a lot of researches on the whole face replacement system, but it is not easy to obtain stable results due to various attitudes, angles and facial diversity. To produce a natural synthesis result when replacing the face shown in the video image, technologies such as face area detection, feature extraction, face alignment, face area segmentation, 3D attitude adjustment and facial transposition should all operate at a precise level. And each technology must be able to be interdependently combined. The results of our analysis show that the difficulty of implementing the technology and contribution to the system in facial replacement technology has increased in facial feature point extraction and facial alignment technology. On the other hand, the difficulty of the facial transposition technique and the three-dimensional posture adjustment technique were low, but showed the need for development. In this paper, we propose four facial replacement models such as 2-D Faceswap, OpenPose, Deekfake, and Cycle GAN, which are suitable for the Cox platform. These models have the following features; i.e. these models include a suitable model for front face pose image conversion, face pose image with active body movement, and face movement with right and left side by 15 degrees, Generative Adversarial Network.

이미지 메타 정보 기반 한국인 표정 감정 인식 (Korean Facial Expression Emotion Recognition based on Image Meta Information)

  • 문형주;임명진;김은희;신주현
    • 스마트미디어저널
    • /
    • 제13권3호
    • /
    • pp.9-17
    • /
    • 2024
  • 최근 팬데믹의 영향과 ICT 기술의 발전으로 인해 비대면·무인 시스템의 활용이 확대되고 있으며, 비대면 상황에서 의사소통은 감정을 이해하는 것이 매우 중요하다. 감정을 이해하기 위해서는 다양한 표정에 대한 감정 인식 방법이 필요함에 따라 이미지 데이터에서 표정 감정 인식 개선을 위한 인공지능 기반 연구가 진행되고 있다. 하지만 기존의 표정 감정 인식 연구는 정확도 향상을 위해 대량의 데이터를 활용하기 때문에 높은 컴퓨팅 파워와 많은 학습 시간이 필요하다. 본 논문에서는 이러한 한계점을 개선하기 위해 소량 데이터로도 표정 감정 인식이 가능한 방법으로 이미지 메타 정보인 연령과 성별을 활용한 표정 감정 인식 방법을 제안한다. 표정 감정 인식을 위해 원본 이미지 데이터에서 Yolo Face 모델을 활용하여 얼굴을 검출하였으며, 이미지 메타 정보를 기반으로 VGG 모델을 통해 연령과 성별을 분류한 다음 EfficientNet 모델을 활용하여 7가지 감정을 인식하였다. 메타 정보 기반 데이터 분류 모델과 전체 데이터로 학습한 모델을 비교한 결과 제안하는 데이터 분류 학습 모델의 정확도가 더 높았음을 확인하였다.

얼굴과 얼굴 특징점 자동 검출을 위한 탄력적 특징 정합 (A flexible Feature Matching for Automatic Face and Facial Feature Points Detection)

  • 박호식;배철수
    • 한국정보통신학회논문지
    • /
    • 제7권4호
    • /
    • pp.705-711
    • /
    • 2003
  • 본 논문에서는 자동적으로 얼굴과 얼굴 특징점(FFPs:Facial Feature Points)을 검출하는 시스템을 제안하였다. 얼굴은 Gabor 특징에 의하여 지정된 특징점의 교점 그래프와 공간적 연결을 나타내는 에지 그래프로 표현하였으며 제안된 탄력적 특징 정합은 모델과 입력 영상에 상응하는 특징을 취하였다. 또한, 정합 모델은 국부적으로 경쟁적이고 전체적으로 협력적인 구조를 이룸으로서 영상공간에서 불규칙 확산 처리와 같은 역할을 하도록 하였으며, 복잡한 배경이나 자세의 변화, 그리고 왜곡된 얼굴 영상에서도 원활하게 동작하는 얼굴 식별 시스템을 구성함으로서 제안된 방법의 효율성을 증명하였다.