• 제목/요약/키워드: 컬러 필터

검색결과 180건 처리시간 0.028초

깊이 영상 카메라로부터 획득된 3D 영상의 품질 향상 방법 (A method of improving the quality of 3D images acquired from RGB-depth camera)

  • 박병서;김동욱;서영호
    • 한국정보통신학회논문지
    • /
    • 제25권5호
    • /
    • pp.637-644
    • /
    • 2021
  • 일반적으로, 컴퓨터 비전, 로보틱스, 증강현실 분야에서 3차원 공간 및 3차원 객체 검출 및 인식기술의 중요성이 대두되고 있다. 특히, 마이크로소프트사의 키넥트(Microsoft Kinect) 방식을 사용하는 영상 센서를 통하여 RGB 영상과 깊이 영상을 실시간 획득하는 것이 가능해짐으로 인하여 객체 검출, 추적 및 인식 연구에 많은 변화를 가져오고 있다. 본 논문에서는 다시점 카메라 시스템 상에서의 깊이 기반(RGB-Depth) 카메라를 통해 획득된 영상을 처리하여 3D 복원 영상의 품질을 향상하는 방법을 제안한다. 본 논문에서는 컬러 영상으로부터 획득한 마스크 적용을 통해 객체 바깥쪽 잡음을 제거하는 방법과 객체 안쪽의 픽셀 간 깊이 정보 차이를 구하는 필터링 연산을 결합하여 적용하는 방법을 제시하였다. 각 실험 결과를 통해 제시한 방법이 효과적으로 잡음을 제거하여 3D 복원 영상의 품질을 향상할 수 있음을 확인하였다.

Pix2Pix의 활용성을 위한 학습이미지 전처리 모델연계방안 연구 (A Study on the Image Preprosessing model linkage method for usability of Pix2Pix)

  • 김효관;황원용
    • 한국정보전자통신기술학회논문지
    • /
    • 제15권5호
    • /
    • pp.380-386
    • /
    • 2022
  • 본 논문은 적대적 생성 신경망 기법의 하나인 Pix2Pix를 활용하여 컬러색상을 입히는 경우 학습된 이미지의 빛 반사 정도에 따라 예측결과가 손상되어 나오는 부분에 집중하여 Pix2Pix 모델 적용 전 이미지 전처리 프로세스 및 모델 최적화를 위한 파라미터 테이블을 구성한다. 기존 논문에 나온 Pix2Pix 모델을 활용하여 실생활에 적용하기 위해서는 해상도에 대한 확장성을 고려해야한다. 학습 및 예측결과 이미지 해상도를 키우기 위해서는 동시에 모델의 커널 사이즈 등을 같이 맞춰주는 부분을 수정해줘야 하는데 이부분은 파라미터로 튜닝 가능하도록 설계했다. 또한 본 논문에서는 예측결과가 빛 반사에 의해 손상된 부분만 별도 처리하는 로직을 같이 구성하여 예측결과를 왜곡시키지 않는 전처리 로직을 구성하였다. 따라서 활용성을 개선하기 위하여 Pix2Pix 모델의 학습이미지에 공통적인 빛반사 튜닝 필터를 적용하는 부분과 파라미터 구성부분을 추가하여 모델 정확도를 개선하였다.

$CAVE^{TM}$-like 시스템에서 시각 커뮤니케이션 지원을 위한 스테레오 비디오 아바타 (A Stereo Video Avatar for Supporting Visual Communication in a $CAVE^{TM}$-like System)

  • 이선민;박지영;김명희
    • 한국정보과학회논문지:시스템및이론
    • /
    • 제33권6호
    • /
    • pp.354-362
    • /
    • 2006
  • 본 논문에서는 CAVE$^{TM}$-like 시스템에서 시각 커뮤니케이션 지원을 위한 고화질 스테레오 비디오 아바타 생성 기법을 제안한다. CAVE$^{TM}$-like 시스템에서는 사용자를 둘러싸고 있는 스크린으로 투사되는 빛의 잦은 변화 때문에 비디오 아바타 생성에 필수적인 사용자 추출이 쉽지 않다. 본 연구에서는 가시광선 차단 필터를 부착한 흑백 카메라로 획득된 적외선 반사 영상을 이용함으로써 스크린 상 빛의 변화를 차단하여 강건하게 사용자를 추출할 수 있도록 하였다. 또한, 사람의 양안차 간격으로 배치한 두 대의 컬러 카메라를 사용하여 삼차원 기하 정보의 재구성 없이 고화질 비디오 아바타를 빠르게 생성하고 입체 디스플레이 하기 위한 양안용 사용자 영상을 획득하였다. 획득된 영상에서 배경을 제거하기 위하여 적외선 반사 영상으로 정의된 실루엣 마스크와의 피팅 알고리즘을 제안한다. 생성된 비디오 아바타 스테레오 영상은 가상공간 내 평면 상에 텍스처 매핑하여 프레임 순차 스테레오 방식를 이용하여 입체 디스플레이할 수 있도록 하였다. 제안된 방식은 기존의 3D 비디오 아바타보다 고화질의 결과를 빠르게 생성할 수 있으며, 2D 기반 방식에서 제공해주지 못하던 입체감을 제공해준다.

다층신경망을 이용한 임의의 크기를 가진 얼굴인식에 관한 연구 (A Study on Face Awareness with Free size using Multi-layer Neural Network)

  • 송홍복;설지환
    • 한국지능시스템학회논문지
    • /
    • 제15권2호
    • /
    • pp.149-162
    • /
    • 2005
  • 본 논문에서는 실시간 폐쇄회로 화면으로 받은 컬러 이미지에서 얼굴영상을 추출하고 이미 지정된 특정인의 얼굴영상과 비교를 통해 지하철이나 은행 등 공공장소에서의 수배자 등 어떤 특정인을 검출하는 방법을 제안하고자 한다. 감시카메라의 특성상 화면속의 얼굴정보가 임의의 크기로 가변하고 영상 내에서 다수의 얼굴정보를 포함하고 있음을 가정할 때, 얼굴영역을 얼마나 정확하게 검색 할 수 있느냐에 초점을 맞추었다. 이를 해결하기 위하여F.Rosenblatt가 제안한 퍼셉트론 신경망 모델을 기초로 임의의 얼굴영상에 대한 $20{\times}20$ 픽셀로 서브샘플링을 사용한 규준화 작업을 통해서 전면얼굴에서와 같은 인식기법의 효과를 사용하고, 획득한 얼굴후보 영역에 대하여 조명이나 빛에 의한 외부환경의 간섭을 최소화하기 위하여 최적선형필터와 히스토그램 평활화 기법을 이용하였다. 그리고 불필요한 학습을 최소화하기 위하여 달걀형 마스크의 덧셈연산을 전 처리 과정에 추가하였다. 전 처리 과정을 마친 이미지는 각각 세 개의 수용필드로 쪼개어져 특정 위치에 존재하는 눈, 코, 입 능의 정보를 신경망 학습을 통해 최종 결정된다. 또한 각각 다른 초기값을 가지는 3개의 단일셋 네트워크시스템을 병력형태로 구성하여 결과의 정확도를 높여 구현하였다.

스네이크 알고리즘에 의한 CCD 카메라 영상에서의 얼굴 및 얼굴 요소 추출 (Pace and Facial Element Extraction in CCD-Camera Images by using Snake Algorithm)

  • 판데홍;김영원;김정연;전병환
    • 한국지능정보시스템학회:학술대회논문집
    • /
    • 한국지능정보시스템학회 2002년도 추계정기학술대회
    • /
    • pp.535-542
    • /
    • 2002
  • 최근 IT 산업이 급성장하면서 화상 회의, 게임, 채팅 등에서의 아바타(avatar) 제어를 위한 자연스러운 인터페이스 기술이 요구되고 있다. 본 논문에서는 동적 윤곽선 모델(active contour models; snakes)을 이용하여 복잡한 배경이 있는 컬러 CCD 카메라 영상에서 얼굴과 눈, 입, 눈썹, 코 등의 얼굴 요소에 대해 윤곽선을 추출하거나 위치를 파악하는 방법을 제안한다. 일반적으로 스네이크 알고리즘은 잡음에 민감하고 초기 모델을 어떻게 설정하는가에 따라 추출 성능이 크게 좌우되기 때문에 주로 단순한 배경의 영상에서 정면 얼굴의 추출에 사용되어왔다 본 연구에서는 이러한 단점을 파악하기 위해, 먼저 YIQ 색상 모델의 I 성분을 이용한 색상 정보와 차 영상 정보를 사용하여 얼굴의 최소 포함 사각형(minimum enclosing rectangle; MER)을 찾고, 이 얼굴 영역 내에서 기하학적인 위치 정보와 에지 정보를 이용하여 눈, 입, 눈썹, 코의 MER을 설정한다. 그런 다음, 각 요소의 MER 내에서 1차 미분과 2차 미분에 근거한 내부 에너지와 에지에 기반한 영상 에너지를 이용한 스네이크 알고리즘을 적용한다. 이때, 에지 영상에서 얼굴 주변의 복잡한 잡음을 제거하기 위하여 색상 정보 영상과 차 영상에 각각 모폴로지(morphology)의 팽창(dilation) 연산을 적용하고 이들의 AND 결합 영상에 팽창 연산을 다시 적용한 이진 영상을 필터로 사용한다. 총 7명으로부터 양 눈이 보이는 정면 유사 방향의 영상을 20장씩 취득하여 총 140장에 대해 실험한 결과, MER의 오차율은 얼굴, 눈, 입에 대해 각각 6.2%, 11.2%, 9.4%로 나타났다. 또한, 스네이크의 초기 제어점을 얼굴은 44개, 눈은 16개, 입은 24개로 지정하여 MER추출에 성공한 영상에 대해 스네이크 알고리즘을 수행한 결과, 추출된 영역의 오차율은 각각 2.2%, 2.6%, 2.5%로 나타났다.해서 Template-based reasoning 예를 보인다 본 방법론은 검색노력을 줄이고, 검색에 있어 Feasibility와 Admissibility를 보장한다.매김할 수 있는 중요한 계기가 될 것이다.재무/비재무적 지표를 고려한 인공신경망기법의 예측적중률이 높은 것으로 나타났다. 즉, 로지스틱회귀 분석의 재무적 지표모형은 훈련, 시험용이 84.45%, 85.10%인 반면, 재무/비재무적 지표모형은 84.45%, 85.08%로서 거의 동일한 예측적중률을 가졌으나 인공신경망기법 분석에서는 재무적 지표모형이 92.23%, 85.10%인 반면, 재무/비재무적 지표모형에서는 91.12%, 88.06%로서 향상된 예측적중률을 나타내었다.ting LMS according to increasing the step-size parameter $\mu$ in the experimentally computed. learning curve. Also we find that convergence speed of proposed algorithm is increased by (B+1) time proportional to B which B is the number of recycled data buffer without complexity of computation. Adaptive transversal filter with proposed data recycling buffer algorithm could efficiently reject ISI of channel and increase speed of convergence in avoidance burden of computational complexity in reality when it was experimented having the same condition of

  • PDF

지식 데이타베이스를 적용한 효율적인 세균 의료영상 검색 시스템의 구현 (Implementation of an Efficient Microbial Medical Image Retrieval System Applying Knowledge Databases)

  • 신용원;구봉오
    • 한국컴퓨터정보학회논문지
    • /
    • 제10권1호
    • /
    • pp.93-100
    • /
    • 2005
  • 본 연구는 신규 임상병리사로 하여금 보다 정확한 의사결정과 효율적인 교육에 이용할 수 있는 지식 및 내용 기반 의료 세균화상 검색 시스템을 설계 및 구현하는 것이다. 이를 위해, 먼저 알고리듬방식의 검색 이전에 경험적 지식을 바탕으로 세균동정단계 중 가장 빠른 경로를 탐색하여 원인균 동정에 소요되는 시간을 줄일 수 있도록 룰 베이스를 근거로 유연성 있는 탐색경로를 설정하여 전체적인 추론을 수행한다. 다음으로, 색상 모델 중에서 HSV 컬러 모델을 이용하여 세균화상 중에서도 특히 세균화상으로부터 시각정보의 색상 특징 벡터를 추출할 수 있는 색상 특징 추출방법을 제안한다. 아울러 대용량 세균화상 데이터베이스를 기반으로 보다 빠른 검색 성능을 위해, 배지, 검체, 부서, 세균명과 같은 단순속성들에 대해서는 B+-트리, 세균화상에 대한 부가적인 설명 정보로부터 추출한 키워드들에 대해서는 역화일기법, 그리고 화상으로부터 추출한 고차원 색상 특징벡터에 대해서는 스캔-기반 필터링(Scan-Based Filtering:SBF) 기법을 결합한 통합 색인기법을 기술한다. 마지막으로 구현된 시스템은 시각적인 내용 자체의 정보와 지식을 이용하여 효과적으로 복잡한 세균화상을 검색 및 관리할 수 있는 가능성을 보인다. 아울러 구현한 지식 및 내-용기반 세균화상 검색 시스템을 통해 임상분야의 지식을 잘 구조화함으로써 초보적인 임상병리사의 학습기간을 현저히 단축시킬 수 있을 것으로 기대된다.

  • PDF

복잡한 배경에서 MAWUPC 알고리즘을 이용한 얼굴과 손의 추적 (Face and Hand Tracking using MAWUPC algorithm in Complex background)

  • 이상환;안상철;김형곤;김재희
    • 대한전자공학회논문지SP
    • /
    • 제39권2호
    • /
    • pp.39-49
    • /
    • 2002
  • 본 논문에서는 움직임 색상(Moving Color) 개념을 바탕으로 물체의 색상 정보와 움직임 정보의 효율적인 결합을 통해서 추적을 수행하는 MAWUPC(Motion Adaptive Weighted Unmatched Pixel Count)알고리즘을 제안하고, 이를 이용하여 일반적인 배경을 가지는 영상시퀀스에서 얼굴과 손을 추적하는 방법을 제안한다. MAWUPC 알고리즘은 색상 정보와 움직임 정보의 효과적인 결합을 수행하는 움직임 색상 개념에 관한 기존 연구인 AWUPC 알고리즘을 개선한 것으로, 추적하고자 하는 물체의 색상 정보를 이용한 색상 변환(Color Transform)과 움직임 검출을 위한 UPC(Unmatched Pixel Count) 연산, 그리고 움직임 정보를 추출하는 이산 칼만 필터(Discrete Kalman Filter)의 효과적인 결합으로 이루어진다. 제안하는 알고리즘은 일반적으로 물체들의 추적 과정에서 발생되는 가장 큰 문제인 유사한 색상을 가진 추적하고자 하는 물체들간의 겹침 문제와 물체의 추적에서 방해가 되는 복잡한 배경 문제를 해결할 수 있는 장점이 있다. 논문에서는 제안하는 알고리즘이 복잡한 배경 내에서 한 대의 카메라를 사용하여 획득된 컬러 영상을 대상으로 움직임이 있는 얼굴과 손의 추적에서 자주 발생되는 심각한 문제인 얼굴과 손, 손과 손의 겹침 문제를 잘 해결할 수 있다는 것을 실험을 통해 보인다.

컴퓨터 컬러 영상을 이용한 위암 자동검출 알고리즘 (Using a computer color image automatic detection algorithm for gastric cancer)

  • 한현지;김영목;이기영;이상식
    • 한국정보전자통신기술학회논문지
    • /
    • 제4권4호
    • /
    • pp.250-257
    • /
    • 2011
  • 본 연구는 발생률 2위에 머무르고 있는 위암의 자동검출 알고리즘을 제시하였다. 증상이 진행된 염증과 암은 비교적 쉽게 판단 가능하지만 초기의 경우 주의 깊게 보지 않는 이상 병변의 진단이 쉽지 않다. 이에 본 연구는 진행 중인 위암 뿐 아니라 조기 진단에 효과적인 자동검출 알고리즘 네 가지를 제시하였다. 연구엔 정상인의 위, 조기 위암과 진행성 위암 환자의 내시경 영상을 사용하였다. 첫 번째, 우선 연구에 사용될 각각의 내시경 영상에 표면 음영 기법의 유무를 결정한다. 기본영상에 표면 음영 기법을 넣거나 제거함으로써 종양의 유무를 색으로 쉽게 판별가능하게 한다. 이 때 각각의 수치 값은 동일하게 유지한다. 표면 음영의 제거, 추가는 각자의 기호에 달렸으나 연구에서는 음영을 넣은 것으로 진행한다. 두 번째, 표면 음영을 추가한 영상에 침식 필터를 거쳐 잡음을 제거하여 진찰에 유의하게 한다. 세 번째, 표면 음영을 추가한 영상에 특정 부위의 선 윤곽 그래프 검출하여 증상 정도에 따른 RED 값을 추출한다. 네번째, 각 환자의 내시경 영상을 세분화 그래프로 나타내 RED 그래프 값을 포함한 후 색을 반전시켜 종양의 위치를 붉게 표시하는 알고리즘을 제안함으로써 위암 뿐 아니라 나아가 타 암과 염증의 진단에도 도움이 되고자 했다.

어도비 AI 지능을 활용한 디지털 색채 실습에 관한 적용방식 연구 -쎈쎄이(Adobe Sensei)을 통한 색채 실습을 중심으로- (Digital color practice using Adobe AI intelligence research on application method - Focusing on color practice through Adobe Sensei -)

  • 조현경
    • 문화기술의 융합
    • /
    • 제8권6호
    • /
    • pp.801-806
    • /
    • 2022
  • 현대에서 디지털 시대에서의 색채 능력의 필요성은 시대의 요구로 기존 실습에 없는 세분화된 디지털 4영역에 관한 색채 실습 개선의 연구가 필요한 것이다. 기존 물감 색채 실습에서 해결되기 어려운 디지털 전공자들에게 더 특화된 4분야 영역별 디지털 색채 실습의 수업이 필요하며, 디지털화된 채색 및 색채 감각의 수업을 위해 효율적 인공지능의 활용을 연구하였다. 본 논문에서는 기존 색채 배색과 조색이 CMYK분야만 할수 있는 실습이었던 것을 포토샵 인공지능 쎈쎄이(Adobe Sensei)의 인공지능과 빅데이터 기술을 기반으로 디지털 색채 배색 실습과 조색의 방식을 제안하여, 색채 실습 영역 확대를 보여주고자 하였다. 아울러 최신의 어도비 쎈세이 프로그램 인공지능이 제공하는 개별 사용자들의 색채 정량화한 데이터를 토대로 필터 효과를 활용한 디지털 색에서의 실질적인 색 조합과 렌덤색채에 대한 학습자 예측을 향상 시키는 실습에 목적을 두었다. 결론적으로, 기존의 물감 실습의 혼색 과정의 모호성을 제거하고, 디지털 채색의 디테일을 보안한 프로그램 활용의 연구이며, 학습자의 수준과 숙련도가 낮아도 인공지능의 지원을 통한 학습능력의 향상으로 감각을 키워나가기 좋은 초급자와 중급자의 효과적 학습 방법을 제공할 수 있는 실습방식을 제안하고자 했다. 이론 고찰을 통한 배색과 주색에 필요한 어도비 프로그램 실습 방식과 기존 물감 실습보다 학습능력에 좋은 교습 향상에 대해 제시하였다.

형태학과 문자의 모양을 이용한 뉴스 비디오에서의 자동 문자 추출 (Automatic Text Extraction from News Video using Morphology and Text Shape)

  • 장인영;고병철;김길천;변혜란
    • 한국정보과학회논문지:컴퓨팅의 실제 및 레터
    • /
    • 제8권4호
    • /
    • pp.479-488
    • /
    • 2002
  • 최근 들어 인터넷 사용의 증가와 더불어 디지털 비디오의 수요 또한 급격히 증가하고 있는 추세이다. 따라서 디지털 비디오 데이타베이스의 인덱싱을 위한 자동화된 도구가 필요하게 되었다. 디지털비디오 영상에 인위적으로 삽입되어진 문자와 배경에 자연적으로 포함되어진 배경문자 등의 문자 정보는 이러한 비디오 인덱싱을 위한 중요한 단서가 되어질 수 있다. 본 논문에서는 뉴스 비디오의 정지 영상에서 뉴스 자막과 배경 문자를 추출하기 위한 새로운 방법을 제안한다. 제안된 알고리즘은 다음과 같이 세 단계로 구성된다. 첫 번째 전처리 단계에서는 입력된 컬러 영상을 명도 영상으로 변환하고, 히스토그램 스트레칭을 적용하여 영상의 수준을 향상시킨다. 이 영상에 적응적 임계값 추출에 의한 분할 방법을 수정 적용하여 영상을 분할한다. 두 번째 단계에서는 적응적 이진화가 적용된 결과 영상에 모폴로지 연산을 적절하게 사용하여, 우선 문자 영역은 아니면서 문자로 판단되기 쉬운 양의 오류(false-positive) 요소들이 강조되어 남아있는 영상을 만든다. 또한, 변형된 이진화 결과 영상에 모폴로지 연산과 본 논문에서 제안한 기하학적 보정(Geo-corrertion) 필터링 방법을 적용하여 문자와 문자로 판단되기 쉬운 요소들이 모두 강조되어 남아있는 영상을 만든다. 이 두 영상의 차를 구함으로서 찾고자 하는 문자 요소들이 주로 남고, 문자가 아닌 문자처럼 보이는 오류 요소들은 대부분 제거된 결과 영상을 만든다. 문자로 판단되는 양의 오류 영역들을 남기는데 사용된 모폴로지 연산은 3$\times$3 크기의 구조 요소를 갖는 열림과 (열림닫힘+닫힘열림)/2 이며, 문자 및 문자와 유사한 요소들을 남기는데 사용된 연산은 (열림닫힘+닫힘열림)/2와 기하학적 보정이다. 세 번째 검증 단계에서는 전체 영상 화소수 대비 각 후보 문자 영역의 화소수 비율, 각 후보 문자 영역의 전체 화소수 대비 외곽선의 화소수 비율, 각 외곽 사각형의 폭 대 높이간의 비율 등을 고려하여 비문자로 판단되는 요소들을 제거한다. 임의의 300개의 국내 뉴스 영상을 대상으로 실험한 결과 93.6%의 문자 추출률을 얻을 수 있었다. 또한, 본 논문에서 제안한 방법으로 국외 뉴스, 영화 비디오 등의 영상에서도 좋은 추출을 보임을 확인할 수 있었다.