• 제목/요약/키워드: Automatic Data Extraction

검색결과 309건 처리시간 0.025초

A Review on Advanced Methodologies to Identify the Breast Cancer Classification using the Deep Learning Techniques

  • Bandaru, Satish Babu;Babu, G. Rama Mohan
    • International Journal of Computer Science & Network Security
    • /
    • 제22권4호
    • /
    • pp.420-426
    • /
    • 2022
  • Breast cancer is among the cancers that may be healed as the disease diagnosed at early times before it is distributed through all the areas of the body. The Automatic Analysis of Diagnostic Tests (AAT) is an automated assistance for physicians that can deliver reliable findings to analyze the critically endangered diseases. Deep learning, a family of machine learning methods, has grown at an astonishing pace in recent years. It is used to search and render diagnoses in fields from banking to medicine to machine learning. We attempt to create a deep learning algorithm that can reliably diagnose the breast cancer in the mammogram. We want the algorithm to identify it as cancer, or this image is not cancer, allowing use of a full testing dataset of either strong clinical annotations in training data or the cancer status only, in which a few images of either cancers or noncancer were annotated. Even with this technique, the photographs would be annotated with the condition; an optional portion of the annotated image will then act as the mark. The final stage of the suggested system doesn't need any based labels to be accessible during model training. Furthermore, the results of the review process suggest that deep learning approaches have surpassed the extent of the level of state-of-of-the-the-the-art in tumor identification, feature extraction, and classification. in these three ways, the paper explains why learning algorithms were applied: train the network from scratch, transplanting certain deep learning concepts and constraints into a network, and (another way) reducing the amount of parameters in the trained nets, are two functions that help expand the scope of the networks. Researchers in economically developing countries have applied deep learning imaging devices to cancer detection; on the other hand, cancer chances have gone through the roof in Africa. Convolutional Neural Network (CNN) is a sort of deep learning that can aid you with a variety of other activities, such as speech recognition, image recognition, and classification. To accomplish this goal in this article, we will use CNN to categorize and identify breast cancer photographs from the available databases from the US Centers for Disease Control and Prevention.

구조화된 웹 문서에 대한 자동 정보추출 (Automatic Information Extraction for Structured Web Documents)

  • 윤보현
    • 인터넷정보학회논문지
    • /
    • 제6권3호
    • /
    • pp.129-145
    • /
    • 2005
  • 본 논문에서는 구조화된 웹문서에서 자동으로 정보를 추출하고 추출된 정보를 통합하는 정보추출 시스템을 제안한다. 제안한 시스템은 레이블(label)이 없는 엔티티를 인식하기 위해 확률 기반 엔티티 인식 방법을 이용하며, 추출된 데이터를 이용하여 기존의 도메인 지식을 반자동으로 확장하는 기능을 제공한다. 게다가 기본 페이지에 링크된 하위 링크의 정보를 추출하는 기능을 제공하며, 도메인에 대한 이종의 정보 소스로부터 얻어진 유사 추출 결과를 통합하는 기능을 제공한다. 실험 결과, 도메인 지식만을 이용하여 웹 정보추출 시스템을 평가하였을 경우의 성능에 비해 하위링크의 정보를 추출하거나 확률 기반으로 레이블을 추론하여 추출 시스템을 평가한 경우의 성능이 상당히 향상됨을 보인다. 아울러 본 논문에서 제안하는 웹 정보추출 시스템은 도메인별로 시스템을 융통성 있게 적용시킬 수 있기 때문에 보다 다양한 정보들을 추출할 수 있다. 자동 도메인 지식의 확장이나 확률적 엔티티 인식 방법은 도메인 지식을 이용하는 프로그램이 추출할 수 있는 정보의 질을 증대시키기 때문에, 사용자의 만족도를 극대화시킬 수 있다는 장점이 있다. 따라서 본 시스템은 인터넷상의 영화 사이트나 공연 사이트 혹은 음식점 사이트에 대해서 정보를 추출해서 사용자의 지적 호기심을 충족시켜줄 수 있을 뿐만 아니라, 다양한 비교 시스템을 구축할 수 있기 때문에 전자 상거래의 활성화에도 기여한다.

  • PDF

자바 웹 앱에서 서블릿 필터와 래퍼를 이용한 컴포넌트 협력 과정 자동 추출 기법 (Automatic Extraction of Component Collaboration in Java Web Applications by Using Servlet Filters and Wrappers)

  • 오재원;안우현;김태공
    • 정보처리학회논문지:소프트웨어 및 데이터공학
    • /
    • 제6권7호
    • /
    • pp.329-336
    • /
    • 2017
  • 웹 앱은 빠르게 진화하며 나날이 복잡해지고 있다. 이에 따라 웹 앱의 검증(validation & verification)이 웹 앱의 개발 및 유지보수를 위해 더욱 중요해 지고 있다. 효율적인 검증을 위해서는 웹 앱 실행 시 일어나는 웹 컴포넌트 사이의 협력 과정(collaboration)에 대한 이해가 선행되어야 한다. 이를 위해 본 논문에서는 웹 페이지 요청 시 페이지 생성을 위해 실행되는 웹 컴포넌트와 이들의 협력 과정을 자동적으로 추출하는 기법을 제안한다. 제안하는 기법은 복잡한 웹 개발 언어 및 기술에 덜 의존하는 동적 기법이며 웹 앱 소스를 블랙박스로 보고 웹 앱의 기능 변화 없이 협력 과정을 추출한다. 오픈 소스 웹 앱에 적용하는 실험을 통해 제안하는 기법의 유효성을 확인할 수 있다.

웹2.0에서 의견정보의 실시간 모니터링을 위한 웹 콘텐츠 마이닝 시스템 (Web Contents Mining System for Real-Time Monitoring of Opinion Information based on Web 2.0)

  • 김영춘;주해종;최혜길;조문택;김영백;이상용
    • 한국지능시스템학회논문지
    • /
    • 제21권1호
    • /
    • pp.68-79
    • /
    • 2011
  • 본 연구에서 제안하는 시스템은 인터넷 상에 존재하는 여러 웹사이트들에 흩어져 있는 웹 콘텐츠에서 사용자 의견 정보들을 자동 추출 및 분석함으로써, 긍정/부정 의견별로 검색 및 통계를 확인할 수 있는 의견 검색 서비스를 제공한다. 그 결과 의견 검색 사용자들은 특정 키워드에 대하여 다른 사용자들의 의견을 손쉽게 한눈에 검색 및 모니터링하는 시스템을 용이하게 사용할 수 있으며, 웹 콘텐츠에서의 의견 추출 및 분석하는 기능을 제공받는다. 제안한 기법들은 다른 기법들과의 비교 실험을 수행하여 실제 성능이 우수함을 증명하였다. 성능 평가는 긍정/부정 의견 정보를 추출하는 기능의 성능 평가, 다국어 정보 검색을 위한 동적 윈도우 기법과 토크나이저 기법을 적용한 성능 평가, 그리고 정확한 다국어 음차표기를 추출 기법에 성능 평가를 실시하였다. 그 적용 사례로 대표적인 영화 리뷰 문장과 위키디피아 실험 데이터를 대상으로 실험하고 그 결과를 분석하였다.

사진측량법과 다시점 카메라를 이용한 구조물의 변위계측 (Displacement Measurement of Structure using Multi-View Camera & Photogrammetry)

  • 여정현;윤인모;정영기
    • 한국정보통신학회:학술대회논문집
    • /
    • 한국해양정보통신학회 2005년도 춘계종합학술대회
    • /
    • pp.1141-1144
    • /
    • 2005
  • 본 논문에서는 구조물의 안전성을 목적으로 변위를 감시하는 자동화된 시스템을 제안한다. 사진측량 기법은 서로 다른 각도에서 촬영된 2차원 이미지로부터 대상물의 정밀한 3차원 형상을 얻어내는 기법으로써 구조물의 변형을 분석하기에 매우 정확하면서도 편리하다. 본 논문은 카메라보정, 표정점(coded target)을 이용한 특징점의 획득, 획득된 특징점의 3차원 복원 및 정확도 분석의 과정으로 구성된다. 논문에서 사용되는 다시점 카메라 각각의 카메라는 일정한 거리와 시차로 배치하였다. 카메라 보정은 다시점 카메라로부터 획득된 3장의 영상에서 7개 이상의 대응점들로부터 트라이포컬텐서를 구하고 이로부터 유클리드 카메라를 구하는 자기교정(self-calibration) 방법을 사용하였다. 특히 특징점 획득 과정에서, 정확한 좌표를 구하기 위하여 외곽형상으로부터 중심점의 좌표를 정확하게 계산해내는 서브픽셀 기법을 사용하고 패턴 인식 기법을 이용하여 특징점을 자동으로 검출하였으며, 실세계 좌표상에서의 실측값을 구하기 위하여 스케일 바를 사용한다.

  • PDF

고속 이진화 영상처리를 이용한 관심영역 추출 알고리즘 (Algorithm for Extract Region of Interest Using Fast Binary Image Processing)

  • 조영복;우성희
    • 한국정보통신학회논문지
    • /
    • 제22권4호
    • /
    • pp.634-640
    • /
    • 2018
  • 본 논문에서는 방사선 영상을 기반으로 관심 영역의 자동 추출 알고리즘을 제안한다. 제안 알고리즘은 입력 영상에서 병변부위를 검출하기 위해 세그먼테이션, 특징 추출 및 참조 이미지 매칭을 이용한다. 추출된 영역은 참조 DB에서 일치하는 병변 이미지를 검색하고, 일치된 결과는 칼만 필터 기반의 적합성 피드백을 이용해 병변을 자동 추출한다. 제안 알고리즘은 왼손 x-ray 입력 영상을 기반으로 성장판을 추출하기 위해 왼손 이미지의 윤곽선을 추출하고, 이것은 다중 스케일 해시안 행렬 기반의 세션화를 이용해 후보 영역을 생성 한다. 그 결과, 제안 알고리즘은 관심영역 분할 단계에서는 0.02초로 빠른 분할이 가능하였고, 분할 영상을 기준으로 ROI 추출시 평균 0.53, 강화 단계에서는 0.49초로 매우 정확한 이미지 분할이 가능한 것을 실험을 통해 알 수 있었다.

다중 구간 샘플링에 기반한 배경제거 알고리즘 (Background Subtraction Algorithm Based on Multiple Interval Pixel Sampling)

  • 이동은;최영규
    • 정보처리학회논문지:소프트웨어 및 데이터공학
    • /
    • 제2권1호
    • /
    • pp.27-34
    • /
    • 2013
  • 배경제거는 동영상의 내용을 자동으로 분석하기 위한 매우 중요한 기술의 하나로 움직이는 객체를 검출하고 추적하기 위한 핵심 기술이다. 본 논문에서는 배경 모델과 함께 배경 영상을 제공하는 새로운 샘플링 기반의 배경제거 알고리즘을 제안한다. 제안된 방법에서는 움직임이 빠른 객체와 느린 객체를 동시에 처리하기 위해 다중 구간 샘플링 기법을 이용하여 배경 모델을 생성한다. 이러한 다중 구간 배경 모델들로부터 최선의 배경 모델을 만들기 위해 "신뢰도"를 사용한 것이 본 논문의 특징이다. 배경 제거 분야에서 다양한 모델을 병합하여 하나의 모델을 만들기 위해 신뢰도를 정의하여 사용한 경우는 현재까지 보고되지 않았다. 실험을 통해 제안된 방법이 다양한 속도의 객체가 존재하고 시간에 따른 그림자의 이동과 같은 환경 변화가 있는 응용에서도 안정적인 결과를 나타내는 것을 알 수 있었다.

영상 매칭으로 생성된 DSM을 이용한 반자동 3차원 건물 외곽선 추출 기법 개발 (Semi-automatic Extraction of 3D Building Boundary Using DSM from Stereo Images Matching)

  • 김수현;이수암
    • 대한원격탐사학회지
    • /
    • 제34권6_1호
    • /
    • pp.1067-1087
    • /
    • 2018
  • 기존의 LiDAR 자료 기반의 건물 외곽선 추출 연구에서는 고정밀 포인트클라우드를 사용하여 자동으로 건물 지붕 영역을 분류하고 이를 입력자료로 하여 건물 외곽선을 추출했다. 반면에 스테레오 영상 정합을 통해 생성된 DSM은 고정밀 포인트클라우드 자료와 달리 원시 자료인 포인트클라우드에 잡음과 비어있는 격자가 존재하기 때문에 완전한 자동으로 건물 지붕 영역을 분류하는데 어려움이 있다. 따라서 본 논문에서는 스테레오 영상 정합을 통해 생성된 DSM에 사용자 입력을 통한 watershed segmentation 기법을 적용하여 반자동으로 건물의 3차원 외곽선을 추출하는 기법을 제안한다. 제안된 기법은 DSM 내 건물 영역을 표시하는 단순한 마커 정보만을 입력하기 때문에 사용자 입력을 최소화한 방식으로 건물의 3차원 외곽선을 생성할 수 있다.

분단위 강우자료를 이용한 극치강우의 최적 시간분포 연구: 서울지점을 중심으로 (A Study on Optimal Time Distribution of Extreme Rainfall Using Minutely Rainfall Data: A Case Study of Seoul)

  • 윤선권;김종석;문영일
    • 한국수자원학회논문집
    • /
    • 제45권3호
    • /
    • pp.275-290
    • /
    • 2012
  • 본 연구에서는 극치강우의 시간분포 연구를 위하여 서울지점 우량관측소의 자기기록지를 1분단위로 독취한 MMR(minutely data using the magnetic recording)자료와 최근 들어 관측을 시작한 AWS (automatic weather system) 분단위기상관측 자료를 이용하여 연최대치 계열의 중앙값을 기준으로 한 POT(peaks over threshold) 계열 추출을 통하여 강우의 최적 시간분포 모형을 개발하였다. 기존 Huff 방법에서의 최대 단점인 지속기간별 시간분포 변화 특성을 고려하지 못하는 점과 강우사상별 강우총량에 대한 기준강우량의 일괄적용 등의 문제를 개선하였으며, 분단위 관측자료의 가중치 적용을 통한 순위결정으로 최빈분위를 선택하고 IQR (interquartile range) matrix의 적용을 통한 Quartile별 호우사상을 추출하는 방법을 제안하였다. 마지막으로 추출된 분단위 무차원 단위우량주상도에 핵밀도함수를 적용하여 자료의 크기와 분포 특성을 고려한 지속기간별 최적 시간분포형을 유도하였다.

공간정보 표준 메타데이터 추출 및 변환 프로그램 개발 (Program Development for Automatic Extraction and Transformation of Standard Metadata of Geo-spatial Data)

  • 한선묵;이기원
    • 대한원격탐사학회지
    • /
    • 제26권5호
    • /
    • pp.549-559
    • /
    • 2010
  • 공간정보 시스템의 구축과 운영에서 메타데이터는 핵심 요소 중의 하나이다. 따라서 국내외 표준화 기구나 단체에서 현실적인 수요를 반영한 다양한 메타데이터를 개발 공표하고 있다. 그리나 국제 표준이나 국가 표준 등이 많은 항목으로 구성되어 있고 메타데이터 서버를 구축하는 경우에는 XML 형식으로 저장, 관리할 필요가 있기 때문에 실무 응용 시스템에서는 표준 형식을 따르기 보다는 운영 기관별로 별도의 메타데이터 사양을 설정하여 사용하는 경우가 많다. 따라서 본 연구에서는 국제 표준인 ISO/TC 19115와 TIAS.KO-10.0139와 TTAS.IS-19115와 같은 단체 메타데이터 표준으로 손쉽게 입력할 수 있도록 직접 공간자료 포맷으로부터 메타데이터 항목과 요소를 추출하여 직접 XML로 저장할 수 있는 프로그램을 개발하였다. 본 프로그램에서 공간영상정보에 대한 자료 포맷의 경우에는 ISO/TC 19115-2 메타데이터 표준 사양으로 추출, 저장할 수 있도록 하였다. 한편 메타데이터 표준간의 항목이나 요소들이 일부 상이하기 때문에 메타데이터 추출 가능과 함께 메타데이터 간의 변환 기능을 개발하여 메타데이터의 상호 운영이 가능하도록 하였다. 본 연구에서는 활용도가 높은 자료 포맷을 대상으로 하였으나 기타 자료 포맷이나 기관별 메타데이터 사양을 처리할 수 있는 확장 기능 구현을 통하여 메타데이터 표준의 활용도를 증가시킬 수 있을 것으로 기대한다.