Proceedings of the Korean Information Science Society Conference (한국정보과학회:학술대회논문집)
Korean Institute of Information Scientists and Engineers (KIISE)
- Semi Annual
- /
- 1598-5164(pISSN)
Domain
- Information/Communication > Information Processing Theory
2010.06c
-
다양한 분야에 소속된 사람들이 사용하고 있는 개념들을 기존의 워드넷과 같은 지식베이스가 모두 포함하지 못한다는 한계점이 지적되었다. 본 연구에서는 이를 해결하기 위해 위키피디아 문서집합의 분석을 통하여 해결하고자 한다. 위키피디아는 현재 320만개 이상의 유/무형의 개체에 대한 상세한 설명을 포함하고 있으며, 현재도 해당 분야의 전문가들에 의해 지속적으로 제목(주제) 생성 및 내용 작성이 수행되고 있다. 이에, 위키피디아 문서는 지식베이스의 개념 확장을 위해 아주 유용한 자원이 될 수 있으며, 본 논문에서는 이러한 위키피디아 문서 제목의 개념화를 통해 기존의 지식베이스와 연결하는 의미적인 방법을 기술한다. 이를 이용한 간단한 실험을 통하여 본 연구가 우월한 가능성이 있음을 파악하였다.
-
휴대용 단말기를 활용하는 위치 기반 서비스는 기존의 단순한 위치 정보 제공 및 분석에서 보다 개인화되고 지능화되고 있다. 이러한 모바일 추천 서비스는 이동 객체의 위치 정보 뿐만 아니라 객체의 주변 환경 정보도 고려하여 보다 쾌적한 서비스를 제공한다. 이를 위해, 시간에 따라 변화하는 이동 객체의 위치추적은 물론, 온도, 습도, 미세먼지, 등의 다양한 센서 데이터도 상황에 맞게 해석하고 활용할 수 있어야 한다. 그리고 다양한 센서 종류와 함께 수많은 센서 데이터를 해석하여, 전체적인 상황을 판단하기 위해서는 센서 데이터를 적절히 표현하는 데이터 모델의 활용이 필요하다. 이 논문에서는 모바일 추천 서비스에서 환경 정보를 제공하기 위하여 활용한 경사 그리드 기반의 센서데이터 추상화 모델과 그 처리 방법을 기술한다. 추상화 모델은 경사 방향을 활용하여 간단하게 해당 지역의 데이터 경향을 나타낸다. 그리고 색인과 연산자를 활용한 처리방법을 통해 환경 정보를 제공하는 과정을 설명한다.
-
최근 들어 정보기술의 발전으로 인해 타 연구 분야와 정보기술을 접목하여 새로운 연구를 수행하려는 IT 융합 연구의 비중이 커지고 있다. 지구환경 보호를 위해서 국내외 환경 및 생태학 분야에서도 정보기술을 기반으로 한 연구가 많이 수행되고 있다. 하나의 예로 미국 위스콘신대학교를 중심으로 정보기술자와 생태학자가 협력하여 미국, 뉴질랜드, 대만 등의 호수와 하천의 생태학적 관측 자료를 수집하여 웹기반으로 연구자에게 제공하는 GLEON(Global Lake Ecological Observatory Network) 연구 사업이 진행되고 있다. 국내에서도 강원대학교에서 소양호와 의암호 등지에 센서를 설치하여 고해상도 모니터링을 시도한 사례가 있었다. 이에, 본 논문에서는 하천 및 호수에 설치된 센서에서 수집되는 다량의 데이터를 처리하여 환경 및 생태학자들이 활용 가능하도록 한국과학기술정보연구원(KISTI)이 보유한 사이버인프라스트럭처를 기반으로 환경.생태분야 e-Science 게이트웨이를 설계하고자 한다. 이를 위해 1) GLEON 등의 해외 관련 사이트를 조사하였으며, 2) 강원대학교에서 설치하여 운영 중인 소양호, 의암호 등에서 센서 관측 데이터를 수집하고, 3) 수집된 데이터를 처리하기 위한 메타데이터와 데이터베이스 스키마를 설계하고, 4) 환경.생태학자들이 연구에 활용 가능하도록 웹 기반 e-Science 게이트웨이인 KLEON(Korean Lake Ecological Observatory Network)을 설계하였다.
-
잠재 의미를 색인하는 것은 문서 색인에 있어서 그 색인 품질에 주요한 요인을 차지한다. 본 논문에서 살펴보는 의미 확산 방법은 문서 집합에 나타나는 단어들의 의미적 연관성을 바탕으로 활성화 작용 모델(spreading activation model)을 구축하고 색인 대상 문서의 단어 분포를 출발점으로 삼아, 그 모델 안에서 의미적으로 수렴할 수 있도록 랜덤 워크 방법(random walk method)1)을 수정한 변형 방법을 이용해 확률을 확산시킨다. 이 방법은 단어 사이의 연관성을 따라 탐색하며 동의어와 다의어 등 단순 단어 일치로는 알 수 없는 의미적 유사 단어들이 의미 있는 확률 분포를 갖게 한다. 이는 단어들의 의미 분포를 가중치 그래프를 통해 보다 합리적으로 다루게 된다. 실험에서는 문서 분류를 시행하여 평균 정확도 및 정확도-재현율 곡선을 산출하였고, 비교 실험을 통해서 전반적인 우수성을 관찰할 수 있었다.
-
관계형 데이터베이스의 데이터와 처리요청이 증가할수록 해당 데이터의 처리속도는 떨어지게 마련이다. 처리해야할 범위가 넓어도 빠른 속도로 결과를 처리할 수 있다면 데이터베이스 시스템의 효용성의 크게 증대될 것이다. 만약 조건에 맞는 데이터가 100만 건이 나왔다고 한다면 굳이 모든 것을 액세스를 한 다음에 그 결과를 출력할 필요는 없기 때문이다. 그러므로 사람의 눈으로 확인할 일부분만 결과를 먼저 제공하고 나머지는 다음 데이터를 원할 때 처리해서 제공하는 방식은 실제로 처리할 데이터는 아주 소량이 되므로 조건 범위와 무관하게 처리량을 크게 줄일 수 있는 장점이 있다. 본 논문에서는, 관계형 데이터베이스 환경에서 부분 범위처리를 통한 성능향상의 개념과 그 분석을 통한 관계형 데이터베이스 성능 향상 모델을 제시한다. 이는 설계에서부터 애플리케이션 개발에 이르기까지 많은 부분에 성능향상을 미치게 될 것으로 보인다.
-
현재 연구자들은 연구기획, 협업 연구자 선정 및 특정 분야의 전문가 정보를 찾기 위해서 많은 시간과 노력을 기울이고 있다. 본 논문에서는 이러한 연구자들의 노력을 줄여주기 위해서 연구자 중심의 학술 정보 분석 서비스에 대해 설명하고자 한다. 본 논문에서는 BiomedExperts, Authoratory, ResearchGATE, Academic Search와 같은 기존 사이트에서 제공되는 연구자 중심 학술 정보 서비스와 OntoFrame S3의 연구자 중심 학술 정보 분석 서비스에 대해 간단하게 살펴보고, 각 사이트에서 공통으로 지원하는 4가지 서비스-연구자의 기본 정보, 연구자의 연구 동향 정보, 연구자 네트워크, 연구자의 논문 정보 서비스-에 대해 비교, 분석하고 주요 기능적 특징에 대해 살펴본다.
-
최근 대두되고 있는 웹2.0의 특징은 일반 사용자들이 능동적으로 정보를 생산해내고 공유하는데 있다. 웹 2.0의 참여형 아키텍쳐를 구성하는 핵심요소로 인식되고 있는 폭소노미(Folksonomy)는 과거 택소노미(Taxonomy)와 같이 전문가에 의하여 구축되는 분류 체계가 아닌 사용자들이 협동적으로 태그(Tag)들을 만들고 관리하는 소셜 태깅(Social Tagging)에 의한 분류 시스템이다. 최근 이러한 폭소노미를 활용하여 이미지를 공유하고 검색하고자 하는 다양한 시도들이 진행되고 있다. 그러나 Flickr와 같은 태그 기반 이미지 공유 시스템에서는 태그의 문법적, 의미적 모호성과 이미지에 대한 태그들의 중요성 또는 상관관계를 고려하지 않아 태그 기반 검색 시 정확성 및 신뢰성을 보장할 수 없다. 이러한 문제를 해결하기 위해 폭소노미에 기반한 이미지 공유 데이터베이스에서 적합한 태그들을 태그 전달(Tag Propagation)하거나 확률 및 출현빈도에 기반하여 태그 랭킹을 수행하기 위한 연구들이 활발히 진행되고 있지만 여전히 만족할만한 성능을 보이지 못하고 있다. 본 논문에서는 이미지 공유 데이터베이스에서 유사한 이미지들로부터 이미지에 보다 적합한 태그들을 부여하기 위해서, WordNet을 활용하여 태그들 간의 의미관계에 기반한 효율적인 태그 랭킹 기법을 제안한다. 또한, 신뢰성 있는 태그 기반 검색을 위하여 제안한 태그 랭킹 기법이 현재 이미지 공유 시스템의 랭킹 결과보다 정확성을 높일 수 있음을 실험 예제를 통하여 확인하였다.
-
정보통신 기술의 발전에 따라 전자 거래를 위한 다양한 기술들이 개발되어 왔다. 그러나 전자 거래에서 사용되는 국제 표준 문서, 국내 표준 문서, 지침서 등과 같은 정보를 체계적으로 관리 및 제공할 수 있는 표준화 된 방법이 개발되어 있지 않다. 따라서 이 논문에서는 전자 거래 관련 정보의 효과적인 관리 및 서비스를 위한 레지스트리 모델을 제안한다. 이를 위하여 관리 모델의 가장 기본적인 정보모델인 ISO/IEC 11179 메타데이터 레지스트리를 참조하여 전자 거래 분야의 표준 참조 시스템 관리 레지스트리 정보 모델을 정의한다. 제안모델은 체계적인 표준 관리 및 상호 연계를 통하여 거래 기업이나 개발 업체에서 전자 거래 시스템 도입 및 구축 시 참조할 종합적인 표준정보 제공을 가능하게 한다.
-
정보의 수가 급격하게 증가하면서 일반적인 정보 검색은 사용자의 생활 패턴이나 선호도를 전혀 반영하지 않은 결과를 보여준다. 이로 인하여 자신에게 적합한 정보를 제공받는 개인화 서비스에 대한 연구가 활발히 연구되고 있다. 본 논문에서는 개인화 서비스를 위한 선호도 조사의 방법으로 GPS로그 파일을 이용한다. GPS로그는 사용자의 모든 이동에 대한 객관적인 기록이므로 이를 분석하면 개인의 선호도와 숨어 있는 패턴을 발견할 수 있다. GPS로그를 관리하기 위한 방법으로 대용량 이동 객체 분산 컴퓨팅 시스템을 기반인 GALIS를 응용한 GPS로 그 관리 시스템을 제안하며, 프로토타입 구현을 통해 시스템의 효율성을 보인다.
-
본 논문에서는 윤곽선 이미지 매칭에서 회전-불변 거리를 계산하는 효율적 방법을 제안한다. 회전-불변 거리 계산은 이미지 시계열을 한 칸씩 회전하면서 매번 유클리디안 거리를 계산해야 하는 고비용의 연산이다. 본 논문에서는 엔빌로프 기반 하한을 사용하여 불필요한 회전-불변 거리 계산을 크게 줄이는 효율적인 해결책을 제시하다. 이를 위해, 먼저 질의 시퀀스 대상의 엔빌로프 작성과 이의 하한 개념을 제시한다.다음으로, 엔빌로프 기반 하한을 회전-불변 거리 계산에 사용하면 많은 수의 회전-불변 거리계산을 줄일 수 있음을 보인다. 실험 결과, 제안한 엔빌로프 기반 매칭 기법은 기존 기법에 비해 최대 수배에서 수십배까지 매칭 성능을 향상시킨 것으로 나타났다.
-
현재 많은 포털 사이트에서는 인기가 있거나 중요도가 높은 키워드에 대해 정보를 제공해주는 태그 클라우드나 연관 검색어 등의 기능이 제공되고 있다. 하지만 대부분의 뉴스기사 페이지들은 날짜와 분야별로 기사들이 나열되어 있으며 사용자는 카테고리별로 나누어진 기사를 읽을 수만 있을 뿐 그 기사와 연관된 다른 기사의 정보에 대해서 한눈에 알아 볼 수 있는 방법은 미흡한 실정이다. 또한 연관 검색어 서비스도 사용자가 검색한 입력 내용을 기반으로 연관성 정도를 분석하여 객관성을 보장하지 못하고 있다. 본 논문에서는 기존의 태그 클라우드 방식에서 좀 더 나아가 축적된 뉴스 기사로 부터 검색 키워드와 밀접히 연관된 키워드를 추출하여 제공하는 기사 검색 시스템을 소개한다. 이 시스템은 사용자가 기사 검색을 하였을 때, 키워드와 가장 밀접한 기사를 검색해 주는 것뿐만 아니라 검색어와 관련된 연관 키워드들을 보여주고 연관된 키워드간의 관계성을 보여줌으로써 뉴스 기사들 속에 숨겨진 연관정보의 탐색을 가능하게 한다.
-
유비쿼터스 센서 네트워크 환경에서 이기종 센서 간 상호 운용성을 높이기 위한 연구가 활발히 진행 중이다. 또한 스마트 모바일 기기의 보편화로 유비쿼터스 환경에 적합한 서비스들이 늘어나고 있다. 이러한 환경 속에서 스마트 모바일 기기를 사용하여 주변 센서에 접근하고 센서 데이터의 의미를 해석하여 사용자에게 제공한다면 센서의 활용을 극대화시킬 수 있다. 하지만 무선 센서는 센서 식별자와 센서 데이터만을 공급하기 때문에 센서의 종류와 측정 단위, 센서의 타입, 제조회사, 관리기관, 소유기관 등을 알 수 없을 뿐 아니라 어떤 센서로부터 데이터를 제공받고 있는지 인식할 수 없다. 따라서 이 논문에서는 무선 센서로부터 제공되는 센서 데이터를 사용자 및 관리자가 식별하고 이해할 수 있도록 센서 레지스트리를 설계한다.
-
Image annotations allow users to access a large image database with textual queries. But since the surrounding text of Web images is generally noisy. an efficient image annotation and retrieval system is highly desired. which requires effective image search techniques. Data mining techniques can be adopted to de-noise and figure out salient terms or phrases from the search results. Clustering algorithms make it possible to represent visual features of images with finite symbols. Annotationbased image search engines can obtains thousands of images for a given query; but their results also consist of visually noise. In this paper. we present a new algorithm Double-Circles that allows a user to remove noise results and characterize more precise representative annotations. We demonstrate our approach on images collected from Flickr image search. Experiments conducted on real Web images show the effectiveness and efficiency of the proposed model.
-
BPMS, ERP, SCM 등 프로세스 인식 정보시스템들이 널리 쓰이게 되면서 프로세스 마이닝에 대한 연구가 활발하게 이루어지고 있다. 프로세스 마이닝은 프로세스가 실행되는 동안 저장된 이벤트 로그로부터 정보를 추출하는 기법이다. 추출된 로그정보는 비즈니스 프로세스의 분석 및 재설계에 사용될 프로세스 모델을 생성하게 된다. 프로세스 마이닝 기법은 프로세스의 자동화 및 기업의 업무정보들을 관리하는 프로세스 기반 정보시스템의 정확성 및 효율성을 위한 중요한 부분을 차지하지만 현재까지의 연구는 생성된 이벤트 로그로부터 프로세스 모델을 재설계하는 프로세스 발견 기법 (Process Discovery Technique)을 적용한 부분에서만 활발히 진행되었다. 프로세스 마이닝은 프로세스 발견 기법 외에도 프로세스 적합성검사 기법 (Process Conformance Checking Technique) 및 프로세스 확장 기법 (Process Extension Technique)이 존재한다. 이들은 많은 프로세스 발견 기법에 대한 연구들이 진행되고 나서야 최근 프로세스 마이닝의 이슈로 떠오르고 있다. 본 논문에서는 프로세스 적합성 검사를 위해 수집된 이벤트 로그와 기존에 나와 있는 여러 가지 프로세스 발견 알고리즘을 통해 생성된 프로세스를 수치적으로 비교할 수 있는 두 가지 애트리뷰트를 제시하였다.
-
최근 시맨틱 웹에 대한 많은 관심이 집중되고 있다. 그러나 시맨틱 웹 기술의 핵심이 되는 온톨로지 개발의 어려움과, 정형화된 개발 방법의 부재로 인해 일반 개발자들이 시맨틱 웹 응용프로그램을 개발하는 데에 많은 어려움을 겪고 있다. 본 연구에서는 온톨로지와 관련 기능들을 컴포넌트화 하고, 컴포넌트들을 결합하여 응용프로그램을 쉽고 빠르게 구현하기 위한 프레임워크를 제안한다. 이는 복잡한 시맨틱 웹 기술을 숨김으로써, 일반 개발자들이 시맨틱 웹에 대한 깊은 이해 없이도 시맨틱 웹 응용프로그램을 쉽고 빠르게 구현할 수 있도록 한다.
-
프로그래밍 코드 안에서 작성하는 기존의 문자열 조합 방식으로 SELECT 쿼리를 작성할 때 일정한 규칙이 없이 다양한 형태로 쿼리가 작성되고 있으며, 이로 인해 쿼리 작성과 관리에 불편함을 주고 있다. 이런 불편함을 해소하고 일관된 규칙을 적용할 수 있는 쿼리 작성 방법을 객체지향 개념을 이용해서 SELECT 쿼리 객체를 정의하고 사용하는 방식으로 제시한다. 이를 위하여 기존 Dynamic Query Class[1]에 SELECT 쿼리 객체를 정의하여 추가하여 전체 상속 관계를 완성하고, SELECT 쿼리에서 둘 이상의 테이블 조인 관계를 객체를 사용해서 구현할 수 있음을 제시한다.
-
최근 스마트폰의 성능이 향상되고 다양한 기능이 추가됨에 따라 기록되는 라이프로그 정보가 급격히 증가하고 있다. 이에 따라 라이프로그를 체계적으로 저장하고 검색하는 일이 중요해지고 있다. 사용자 컨텍스트는 라이프로그 검색의 정확도를 높이기 위한 중요한 요소 중 하나로 논의되어 왔다. 따라서 이를 자동으로 추출하고, 라이프로그의 태깅에 활용하려는 많은 연구가 시도되었다. 그러나 많은 기존 연구들은 컨텍스트를 추출하기 위해 사용자 주변에 센서가 설치되어 있는 환경을 가정하였는데, 이러한 환경은 비용 등의 문제로 일부 제한된 영역에서만 적용 가능하기 때문에, 광범위한 지역에서 사용자의 컨텍스트를 추출할 수 없다는 문제점이 있었다. 본 연구에서는 외부 센서들이 설치된 환경을 가정하지 않고, 스마트폰에 장착된 센서만을 활용하여 사용자의 컨텍스트를 찾아내고, 이를 라이프로그 자동 태깅에 적극 활용하는 방법에 대해 제안한다. 특히 본 연구에서는 기존의 포괄적인 컨텍스트의 정의를 일정 시간 간격동안 지속되는 사용자의 상황으로 한정지어 재정의하고, 이를 라이프로그 태깅에 활용하는 방법에 대해서 논의한다.
-
시맨틱 웹은 웹 환경에서 데이터의 의미를 표준화된 방법으로 표현함으로써 데이터의 상호 운용성을 보장하고 기계가 활용 가능한 데이터의 웹을 가능하게 해준다. 온톨로지에서 데이터는 식별자(URI)를 사용해서 의미가 명확화되고, 표준 기술 방법(RDF)를 통해서 어플리케이션 간 데이터의 통합 및 재사용을 가능하게 해준다. 최근 미국과 유럽을 중심으로 링크드 데이터 프로젝트를 통해서 시맨틱 데이터들의 상호연계가 활발하게 추진하고 있다. 그러나 다양한 출처들의 데이터를 연계하는 과정에서, 동일한 객체에 서로 다른 식별자가 할당된 경우 식별자를 통한 시맨틱 정보 연계에 문제가 발생할 수 있다. OWL에서는 동일 객체에 대한 2개 이상의 식별자가 부여된 경우 owl:sameAs를 이용해서 식별자들이 동일 객체를 가리키고 있음을 명시한다. 본 연구에서는 서로 다른 식별자를 가진 객체들이 owl:sameAs를 사용해서 동일 객체로 표현되었을 경우, 동일 객체에 부여된 식별자 정보를 효과적으로 관리하고, 이를 서비스에 활용하기 위한 관리 서버를 설계하였다. 관리 서버를 통해 동일 객체에 대한 식별자들의 체계적인 관리는 물론, 동일 객체를 찾기 위한 질의 횟수를 감소시켜서 서비스 소요시간을 줄일 수 있다.
-
첨단과학의 발달과 정보화 시대는 전쟁수행 패러다임을 근본적으로 변화시키고 있다. 이러한 전장 환경의 변화와 더불어 군 내부에서도 정보기술의 급격한 변화를 적극적으로 수용하고 21세기 국방을 건설하기 위한 국방 정보화 목표를 앞당기기 위해 수많은 정보기술체계를 도입하고 적용하고 있다. 이러한 수많은 체계들의 유입 속에서 각 체계간의 상관관계를 규명하여 효과적으로 사용하는 것은 중요한 문제로 대두되고 있으며, 이러한 문제의 해결방법으로 최근에 대두되고 있는 방법론이 사회연결망 분석(SNA : Social Network Analysis)이다. 사회연결만 분석은 무수히 많은 정보의 홍수 속에서 그들의 관계를 파악하고, 임무수행에 필요한 중요 노드를 식별하여 불필요한 자원을 낭비 하지 않은 중요한 요소를 분석 할 수 있는 유용한 방법론으로 사회, 문화 전반에 걸쳐 활발히 연구되고 있다. 본 논문에서는 이러한 사회연결망분석을 통해 지휘통제체계와 연계된 노드간의 관계를 규명하고, 관계망속에 속한 정보의 획득 및 흐름을 파악하여 이를 시각화하고자 한다. 이를 통해 현재 운용중인 지휘통제체계 구조에 대해 이해하기 쉽고, 용이하게 파악 할 수 있으며, 이를 기반으로 지휘구조의 조직과 조직적인 행동과 현상을 도출하고, 향후 군 네트워크 파워를 측정 할 수 있다.
-
정부는 미래의 성장잠재력을 확충하기 위해 국가경쟁력의 핵심인 과학기술에 대한 재정투자규모를 지속적으로 확대하고 있다. 지속적인 R&D투자 확대의 결과로 국가 중요핵심기술 개발이 활발히 이루어지고 있어, 이에 대한 보안관리 또한 중요시 부각되어 금년부터 국가과학기술위원회는 조사 분석 시 보안과제 현황을 조사하는 등의 노력을 기울이고 있다. 그러나, 보안과제의 경우 엄격한 보안대책 요구등의 행정부담 증가의 이유로 인하여 활성화되지 못하고 있는 실정이다. 이에 본 논문에서는 '09년도 보안과제에 대한 현황분석 및 연구 애로사항을 조사하고, 보안과제에 대한 일선 연구자들의 적극적인 참여를 유도하기 위한 핵심 지원방안을 AHP(Analytic Hierarchy Process) 기법을 통하여 설계하여 보안과제 활성화를 위한 주요 의사결정의 도구로 활용한다.
-
쌍방향으로 질문과 답변을 하는 커뮤니티 기반의 지식검색서비스에서는 질의를 통해 원하는 답변을 얻을 수 있지만, 수많은 사용자들이 참여함에 따라 방대한 문서 속에서 검증된 문서를 찾아내는 것은 점점 더 어려워지고 있다. 지식검색서비스에서 기존 연구는 사용자들이 생성한 데이터 즉 추천수, 조회수 등의 비텍스트 정보를 이용하거나 답변의 길이, 자료첨부, 연결어 등의 텍스트 정보 이용하여 전문가를 식별하거나 문서의 품질을 평가하고, 이를 검색에 반영하여 검색성능을 향상시키는 데 활용했다. 그러나 비텍스트 정보는 질의/응답의 초기에 사용자들에 의해 충분한 정보를 확보할 수 없는 단점이 제기 되며, 텍스트 정보는 전체의 문서를 답변의 길이, 자료 첨부등과 같은 일부요인으로 판단해야하기 때문에 품질평가의 한계가 있다고 볼 수 있겠다. 본 논문에서는 이러한 비텍스트 정보와 텍스트 정보의 문제점을 개선하기 위한 품질평가 알고리즘을 제안한다. 제안된 알고리즘을 통한 품질지수는 텍스트/비텍스트 정보와 소셜 네트워크 사용자 중앙성을 고려하여 질문에 적합하고 신뢰성 있는 답변을 랭킹화 함으로써 지식검색문서를 분별하는 지표가 되며, 이는 지식검색서비스의 성능향상에 기여를 할 수 있을 것으로 기대된다.
-
인터넷진흥원의 자료에 따르면 2009년 5월을 기점으로 전체가구의 80%가 인터넷을 사용하고 있으며 이중 만 3세 이상의 사용자들도 77.2%에 달한다. 또한 전체 사용자 중 블로그 서비스 사용률은 59.7%에 달하고 있다. 블로그와 같은 온라인 커뮤니케이션 서비스의 확대는 생산적 소비자의 확대를 가져왔고 동시에 블로그를 기업 마케팅의 전략 창구로서 변화 시키고 있다. 기업이 직접 블로그를 운영하게 될 때는 콘텐트를 블로그에 게시하는 것 만으로 끝나지 않는다. 언제, 어디서, 어떻게 콘텐트가 읽혀졌는지, 콘텐트가 기업의 브랜드 이미지에 어떤 영향을 가지는가 등의 콘텐트 분석 또한 필수적인 요소가 되는 것이다. 이에 본 논문에서는 브랜드 블로그의 콘텐트를 분석하기 위한 분석 시스템을 개발하고 이를 적용시켜 브랜드 블로그 상의 콘텐트 추적 결과를 논해보고자 한다.
-
웹 2.0의 도래와 더불어 웹 문화의 변화가 급속도로 변하고 있다. 기존의 정보 이용자는 정보 제공자가 제공하는 정보를 단순히 받아보는 수동적인 입장에서, 사용자가 정보를 창출하고 변화를 이끄는 1인 미디어의 시대가 왔다. 이러한 정보의 홍수 시대 속에서 우리가 원하는 정보의 요구량는 하나의 웹 페이지의 정보만으로는 충족될 수 없다. 이에 일률적이고 비슷한 이미지와 정보 배치를 보여주는 웹 페이지들을 좀 더 자신의 개성을 살려 표현하고, 사용자에게 맞춰진 정보들로 구성할 수 있는 맞춤형 개인화 웹 어플리케이션을 제안한다.
-
The dynamic nature and exponential growth of the World Wide Web remain crawling important pages early still challenging. State-of-the-art crawl scheduling algorithms require huge running time to prioritize web pages during crawling. In this research, we proposed crawl scheduling algorithms that are not only fast but also download important pages early. The algorithms give high importance to some specific pages those have good linkages such as inlinks from different domains or host. The proposed algorithms were experimented on publically available large datasets. The results of experiments showed that propagating more importance to the inter-host links improves the effectiveness of crawl scheduling than the current state-of-the-art crawl scheduling algorithms.
-
사용자와 취향이 비슷한 사용자를 찾고, 이 유사 사용자가 선호한 아이템을 추천하는 협력적 필터링방식은 일반적으로 많이 사용되는 추천 방식이다. 하지만 협력적 필터링 방식은 어떤 상황적 요소도 고려하지 않아 모든 상황에서 동일한 추천 결과를 제시하게 된다. 반면, 상황을 고려한 추천 방식은 다른 상황에서 그 상황에 적합하다고 판단되는 추천 리스트를 보여주는 다양성을 가지지만 개인의 선호를 반영하지 못하는 한계를 가진다. 이에 협력적 필터링 방식과 상황에 따른 추천 방식을 함께 고려하려는 시도가 있다. 본 논문에서는 시간 상황에 따른 음악 추천 시, 전체 상황에서 가장 유사한 사용자를 찾고 이 유사 사용자의 현재 상황에서의 선호 아이템을 추천하는 모델을 제시하고 실험을 통하여 이 모델의 한계와 실용 가능한 상황을 제시한다.
-
Yang, Jin-Hyuk;Choi, Hee-Seok;Kim, Tae-Hyun;Kim, Yoon-Jung;Kim, Sung-Ho;Lee, Byung-Hee;Kim, Jae-Soo 126
국가과학기술지식정보서비스(NTIS)는 현재 15개 부처 청 16개 대표전문기관 및 8개 성과물전담기관으로 부터 데이터를 연계수집 및 통합하여 공동 활용하고 있다. NTIS가 상기와 같은 분산 환경에서 데이터를 통합한 후 서비스를 제공하고 있는 이유로 인해, 데이터를 제공하는 각 기관에서는 데이터 제공과 관련 하드웨어, 소프트웨어 및 제공대상 데이터에 대한 상세정보를 실시간으로 모니터링할 수 있는 기능을 요구하였다. 본 논문에서는 이러한 요구사항을 충족시키기 위해 개발한 정보연계모니터링(Real-time Monitoring: ReMon) 서비스를 소개한다. ReMon서비스를 활용함으로써 분산 환경에서의 데이터 통합을 실시간으로 모니터링할 수 있으며, 나아가 국가R&D정보의 수집 및 공동 활용체계를 개선시키는 데에 기여하였다. -
이 논문에서는 전력기기의 사용량증가에 따른 전력량 부족으로 전력공급확보에 필요한 인원, 자재, 비용 등의 부족과 발전연료비용의 상승, 전력발전에 따른
$CO_2$ 배출량증가 등의 문제점을 최소화하기 위한 전력관리시스템(Demand Response System)을 제안한다. 전력관리 시스템은 전력사용자와 전력사업자와의 협력을 통해 전력확보와 수요를 관리하기 위한 전력절감 이벤트, 전력사용량 모니터링, 분석 등의 기능을 통하여 전력수요 관리가 가능한 시스템이다. 더 나아가 전력소비 관리가 이루어짐으로써 전력생산량 감소에 따른 이산화탄소의 절감효과를 기대할 수 있을 것이다. -
현대의 데이터베이스 서버는 거대하고 복잡한 소프트 시스템의 구조이다. 복잡한 SQL(Structured query language) 언어는 점점 늘어가고 ANSI 표준을 바탕으로 새로운 형태로 발달하고 있다. 데이터베이스 서버를 테스트하는 작업은 꾸준히 진행되어 왔으며 앞으로도 계속 도전하고 있는 과제중 하나이다. 그 과제에 적합한 새로운 테스트 기법의 개발을 위해서는 보편적으로 막대한 인력과 비용이 요구된다. 본 논문에서는 수동적인 테스트에서의 막대한 인력과 비용의 문제로부터의 해결책을 제공하기 위해서 자동화된 SQL 쿼리 테스트 프레임워크를 제시한다. 본 프레임워크는 SQL의 기본이 되는 SQL BNF(Backus-Naur Format) 문법을 기본으로 하여 문법적, 의미적으로 정확한 "지능적인" SQL 쿼리를 랜덤하게 자동적으로 생성 한다. 생성된 "지능적인" 쿼리는 논리적 모델에서 얻어지고, 통계적인 정보를 통해 사용자에게 유용한 체크리스트를 제공한다. 각각의 데이터베이스 개발업체는 그들의 데이터베이스와 새롭게 개발되는 데이터베이스를 통합적으로 테스트 환경을 제공함에 따라 테스트 과정에서의 인력과 비용의 문제를 해결하고, 데이터베이스의 장단점을 파악하는 기준을 제공하여 품질 향상에 도움이 될 것이다.
-
현재 국가과학기술지식정보서비스는 15개 부처 청과의 연계를 통해 과제, 인력, 장비 기자재, 성과 등 국가R&D사업정보를 한 곳에서 서비스한다. 그러나 실시간 정보 수집율이 저조함에 따라 당해연도 과제정보에 대한 서비스가 다소 제한적으로 제공된다. 본 연구에서는 현재의 국가R&D정보 수집체계에 대한 현황을 분석하고, 이를 토대로 실시간 수집율 제고를 위한 정보연계확대 및 개선방안을 제안한다. 또한 본 논문에서 제시한 실시간 연계체계 확대 방안에 따른 기대효과를 논의한다.
-
유비쿼터스 환경은 디바이스의 상태 및 위치가 자주 변하는 특성을 가진다. 이러한 특성은 사용자가 사용하고 있는 서비스의 오퍼레이션 상태에도 영향을 주게 된다. 즉, 사용하고 있던 서비스 오퍼레이션이 갑자기 물리적 위치가 변경되어 재연결을 요구한다거나, 사용할 수가 없어 다른 오퍼레이션으로 대체해야 하는 경우가 발생할 수 있다. 이 때, 사용자에게 사용하던 오퍼레이션과 같은 기능을 하는 서비스를 발견해 줄 수 있어야 하며, 끊김 없는 서비스를 제공하기 위해 동적 바인딩이 제공되어야 한다.
-
실시간 데이터 마이닝 기법은 다양한 종류의 센서에서 수집된 다차원 스트림 데이터들 사이에 존재하는 의미있는 정보를 탐사할 수 있다. 전통적인 데이터베이스 시스템에서의 마이닝 기법은 정적인 데이터베이스에 기초하므로 실시간으로 수집되는 스트림 데이터는 시간 속성을 갖는 인터벌 이벤트로 요약되어야 한다. 이 논문은 다차원 스트림 데이터 환경에서 스트림 데이터를 요약하고 이들 사이에 존재하는 인과 관계를 탐사하는 실시간 데이터 마이닝 기법을 제안한다. 제안 기법은 센서에서 수집되는 데이터의 대부분이 객체의 정상적인 상태 데이터임을 고려하여 의미있는 이상 이벤트를 선별하여 전송한다. 그리고 스트림 데이터의 연속성을 고려하며 스트림 데이터를 세 가지 상태의 이벤트로 요약하고 인과 관계 규칙을 탐사한다. 인과 관계 규칙은 시간에 따라 이벤트 발생에 영향력을 미치는 원인 이벤트를 발견함으로써 이벤트의 발생을 미리 예측할 수 있다.
-
vp tree는 기준점(vantage point)과의 거리를 기준으로 데이터베이스 내의 자료를 색인하는 자료구조이다. 멀티미디어 자료 검색에서 비슷한 정도는 객체간의 거리를 바탕으로 비교하고, vp tree 색인 구조는 이 과정을 내포하고 있기 때문에 최근 멀티미디어 검색 연구에서 많이 사용되고 있다. 검색 방법에는 query와 가장 가까운 대상을 찾는 Nearest Neighbor Search, 또는 query와 가까운 k등까지를 검색하는 k-Nearest Neighbor Search가 있다. 본 논문에서는 Content-based retrieval에서 최근 자주 사용되는 vp tree에서 효과적인 k-NNS 방법을 제안하고, 기존의 전형적인 k-NNS 방법과의 비교 실험 결과를 보인다.
-
USN(Ubiquitous Sensor Network) 환경을 이용하여 서비스를 제공하는 응용들의 수는 점점 많아지고 있는 추세이다. 이러한 응용들이 USN을 활용하여 서비스를 제공하기 위해서는 USN을 구성하는 자원들에 관한 정보가 필요하다. USN 메타데이터는 이를 위한 한가지 방법으로 USN 자원 정보를 표현하는 것에 초점을 맞추고 있다. USN 메타데이터를 실제의 응용에 적용하기 위해서는 메타데이터를 저장하고 관리하는 것이 필수적인 요구 사항이다. 본 논문에서는 USN 메타데이터를 관리하기 위한 USN 메타데이터 관리 시스템을 설계하고 구현한다. 논문에서 제안한 USN 메타데이터 관리 시스템은 저장구조에 독립적으로 USN 메타데이터를 저장하고 XML 표준 질의어인 XQuery를 이용하여 검색을 수행한다. 또한 다른 시스템과의 성능평가를 통해 효과적인 USN 메타데이터 관리 기법을 알아보고 이는 향후 USN 환경에 메타데이터 관리를 위한 기준으로 삼을 수 있는 자료가 될 것으로 기대된다.
-
본 논문에서는 계층적 데이터를 관계형 데이터베이스 시스템에 저장하기 위한 요구사항을 만족하는 XML 레이블링 기법으로서 Farey Sequence 를 응용한 Faray 레이블링 기법을 제안한다. 이는 일반적인 동적 삽입연산 외에 형제간 노드 사이에 새 노드를 삽입할 경우 추가적인 레이블의 사이즈 증가 없이 기존노드의 리레이블링이 없고, 말단 노드의 삭제시 레이블의 재사용이 원할하며, 부모와 자식 사이에 새 노드를 삽입하는 경우가 빈번한 계층적 데이터 관리 시에 리레이블링을 최소화 할 수 있는 방법이다. 기존 XML 레이블링 기법이 부모 자식사이에 삽입 연산을 하는 경우 하위의 모든 노드를 리레이블링 해야 하는것에 비하여 본 기법은 오직 1개의 하위 노드만을 리레이블링 하기 때문에 해당 경우의 계층적 데이터의 동적 삽입 시 하위 노드의 개수에 상관없이 일정하게 연산시간을 유지할 수 있다.
-
최근 무선 인터넷에서 사용자의 위치정보가 다양한 응용의 정보 요소로 활용되기 시작하였고, 이러한 응용의 하나로 위치기반 서비스(Location-Based Service: LBS)가 주목을 받고 있다. 그러나 위치기반 서비스에서는 서비스를 요청하는 사용자가 자신의 정확한 위치 정보를 데이터베이스 서버로 보내기 때문에 사용자의 개인 정보가 노출될 수 있는 취약성을 지니고 있다. 이에 모바일 사용자가 안전하고 편리하게 위치기반 서비스를 사용하기 위한 개인 정보보호 방법이 요구되었다. 사용자의 위치 정보를 보호하기 위해 전통적인 데이터베이스에서의 개인정보 보호를 위해 사용되었던 K-anonymity의 개념이 적용되었고, 그에 따른 익명화를 수행할 수 있는 모델이 제시되었다. 하지만 기존 연구되었던 모델들은 오직 사용자의 정확한 위치 정보만을 민감한 속성으로 고려하여 익명화를 수행하였기 때문에, 이후 제시된 사용자의 프로필 정보를 고려한 모델에 대해서는 기존의 익명화만으로는 완전한 프라이버시를 보장할 수 없게 되어 추가적인 처리 과정을 필요로 하게 되었다. 본 연구는 프로필 정보를 고려한 위치기반 서비스 모델에서 Private-to-Public 질의가 주어지는 경우에 발생하는 추가적인 개인 식별의 위협에 관한 문제를 정의하고 이에 대한 해결책을 제시하며, 또한 제안 기법이 사용자 정보 보호를 보장하며 기존 방안보다 효율적임을 보인다.
-
스카이라인 질의는 사용자의 선호도를 고려하여 무수히 많은 데이터로부터 사용자에게 유용한 정보만을 반환한다. 스카이라인을 효율적으로 계산하기 위한 많은 방법들이 연구 되었지만, 그 중에서도 스카이라인질의 기능이 제공되지 않는 일반적인 데이터베이스로부터 스카이라인을 계산할 수 있는 최적의 알고리즘인 Sort and Limit Skyline Algorithm(SaLSa)이 있다. SaLSa는 정렬된 데이터와 정지점의 활용으로 전체 데이터 중 일부만 읽으며 스카이라인을 구할 수 있다. 정지점을 중간에 계산하는 SaLSa는 정지점의 기능을 충분히 활용하지 못한다. 본 논문에서는 정지점을 미리 계산하여 정지점의 제거기능을 최대화시킨 효율적인 스카이라인 알고리즘 Skyline with Transformation(SWT)을 제안하고, 실험을 통해 SWT가 SaLSa에 비해 데이터 제거 효과 및 스카이라인 질의 처리 속도가 우수함을 검증한다.
-
RFID 미들웨어에서 저장소 역할을 하는 EPCIS는 이전까지 물품의 식별 정보만을 저장 및 관리하고 있었다. 하지만, 최근에는 많은 물류 분야의 응용에서 물품의 식별 정보뿐만 아니라 센서 및 위치 정보 등을 포함하는 다양한 물류 정보를 EPCIS에서 저장 및 관리하도록 요구하고 있다. 하지만, 현재 EPCIS에서는 RFID 태그의 식별 정보 이외의 정보에 대하여 처리를 하지 않고 있으며, 설령 처리한다하더라도 비효율적인 조인으로 인한 속도 저하가 일어날 수 있다. 즉, 각 정보 소자에 대한 복합 정보를 요구하는 응용에서는 개별적인 시스템에 질의를 한 후 결과를 조합해야 하는 부담이 있다. 본 논문에서는 물품의 식별 정보, 센서 및 위치 정보를 포함하는 지오센서 태그 데이터에 대한 효율적인 처리를 지원하기 위한 다양한 물류 환경의 정보와 질의 조건의 특징을 분석하며, 분석된 내용을 바탕으로 데이터 모델링을 제시한다.
-
최근 위치 인식 기술과 휴대 장치의 발달로 인해 이동하는 객체를 기반으로 하는 위치 기반 서비스(Location Based Service, LBS)의 관심이 점점 증가하고 있고 그에 관련된 연구들이 활발하게 진행되고 있다. 이동 객체의 응용은 빈번하게 변경되는 이동객체의 위치정보를 효과적으로 처리할 수 있는 색인구조를 필요로 한다. 위치정보를 색인하기 위해 R-tree 기반의 색인들이 제안되었다. 하지만 R-tree는 변경보다는 검색 연산에 초점이 맞추어진 색인구조이기 때문에 잦은 변경을 다루어야 하는 이동객체 환경에 적합하지 못하다. 최근 이러한 객체의 빠른 위치 변경을 지원하는 그리드 기반의 색인 구조가 제안되었다. 하지만 셀의 객체 점유율에 따라 검색 속도가 저하되는 단점은 여전히 해결되지 못하고 있다. 이러한 단점은 객체들이 특정 영역에 몰리는 경우 또는 그리드의 해상도를 잘못 지정한 경우 더욱 부각된다. 본 논문에서는 이러한 단점을 해결하기 위해 가상 셀 기반의 색인 구조를 제안한다. 데이터 페이지에 객체의 점유율을 보장하기 위해 여러 개의 인접한 셀들의 데이터를 한 데이터 페이지에 함께 저장한다. 공간 채움 곡선을 기반으로 순서화된 셀들로 셀의 인접성을 결정한다. 또한 공간 채움 곡선의 차수를 동적으로 지정하여 객체가 집중된 셀에 대해서는 셀의 단위 크기를 작게 지정한다. 뿐만 아니라 셀을 표현하기 위한 식별자를 위해 비트를 이용한 표현식을 제안하였다. 이로 인해 노드의 팬아웃을 증가시켰고, 저장공간을 절약하였다. 실험을 통해서 제안하는 색인 기법의 우수성을 증명하였다.
-
표준특허란 표준문서의 규격을 기술적으로 구현하는 과정에서 필수적으로 적용해야 하는 특허로서, 최근 선진국은 "R&D-특허-표준화의 연계"를 강화하고 있고 글로벌 기업 또한 표준과 연계한 특허 획득에 주력하고 있다. 우리나라 또한 기술선점, 시장지배력 및 경제적 파급효과 등의 표준특허 확보의 중요성을 인식하고 있고, 정부와 정부부처의 산하 연구기관을 중심으로 표준특허 관련 법 제도 등의 관련연구가 진행되고 있다. 그러나 표준특허 분석결과만이 연구결과로 공개되고 있을 뿐, 실제로 표준특허 선별을 위한 정형화된 기법은 전무한 상태이며 분석방법론 관련연구 또한 매우 미미한 상태이다. 따라서 본 논문은 형태학적 특성에 기반을 두어 표준과 특허문서 간 유사도를 측정하고, 측정된 유사도를 분석하여 신뢰성 있게 표준특허를 선별하는 방법을 제안하고 그 적용사례를 분석한다.
-
웹 기술이 발달함에 따라 공공기관 웹사이트는 단순한 행정기관의 홍보에서 벗어나 국민과 정부 간의 의사소통의 증거인 동시에 업무의 기록으로서 역할을 담당하고 있다. 따라서 공공기관의 웹사이트들은 공공기록물로 인식하고 보호해야 한다. 하지만 공공기관의 웹기록물 중 하나인 심층 웹기록물은 실시간으로 상이한 페이지를 동적으로 구성하기 때문에 기존의 보존방법과는 다른 수집 보존 활용 기술이 요구된다. 국가기록원은 이러한 특징을 가지고 있는 심층 웹기록물을 장기보존하기 위해서 심층 웹기록물 장기보존 포맷인 KoDeWeb을 연구하고 개발하였다. KoDeWeb은 전자기록물이기 때문에 전자기록물로서 진본성 및 무결성을 보장해야 한다. 본 연구에서는 KoDeWeb의 전자기록물로서의 진본성 및 무결성을 증명하기 위해 국제 전자기록물 표준인 OAIS 참조모델에 KoDeWeb을 맵핑시켰다. 나아가 OAIS표준을 따르고 있는 전자기록물 장기보존 시스템에 KoDeWeb을 사용함으로써, 정부 및 공공기관의 심층 웹기록물 생성 및 수집을 체계화하고, 또한 민간이 운영하는 웹의 심층 웹기록물 장기보존에 활용할 수 있다.
-
하루에도 수많은 도서가 출판되는 현실에서 사용자가 원하는 목적에 맞는 도서를 찾아 읽기는 어려운 일이다. 본 논문에서는 방대한 분량의 도서 데이타를 바탕으로, MapReduce 모델을 활용하여 도서들 사이의 연관 관계를 추출하였다. 추출한 연관 관계 DB를 이용하여 사용자에게 서로 관련 있는 도서를 추천해줄 수 있는 시스템을 개발하고자 한다.
-
심장질환은 암 다음으로 높은 사망 원인으로 초기 진단은 치료에 매우 중요한 문제로 대두 되고 있다. 심장병을 분석하기 위해서는 임상 데이터에 대해 자세히 알고 분석 하는 것이 중요하다. 본 논문에서는 심장 질환 데이터를 효율적으로 분석하기 위해 배깅 알고리즘을 사용하여 중요 검사 항목을 추출해내고 분석하는 방법을 제안한다. 데이터를 분석하는 과정에 있어서 분류자들을 생성하고 앙상블 하는 과정에 효과적인 결과를 얻기 위해서 다양한 알고리즘들을 결합해야 구성해야한다. 앙상블을 이용하여 가장 좋은 의 분류 효과를 얻기 위해서는 수천가지의 분류자들을 훈련시켜 성능이 좋은 앙상블을 구성한다.
-
지금까지 병원에서 사용하던 일반 종이차트를 벗어나 전자적으로 환자의 데이터를 기록하고 유전자 데이터를 이용하여 환자의 유사 질병까지 찾아 낼 수 있는 EMR(Electronic Medical Record 전자 의무 기록)이 개발되면서 의료계는 환자에게 더욱 신속하고 정확한 진료를 할 수 있게 되었다. 본 논문은 이에 그리드 환경을 접목하여 더 빠른 데이터 처리와 신뢰성 과 접근성을 높일 수 있는 방법을 제시한다. 첫째, 현재 기 개발된 EMR 시스템의 환경에서 인증된 사용자만이 스토리지에 접근 할 수 있도록 GSI Service를 이용하여 단일 인증 방식으로 보안성을 높이며 동시에 단 한번의 인증절차로 모든 자원을 활용 할 수 있다. 둘째, Replica Service를 이용하여 기존의 스토리지를 복제 하여 중요한 데이터 들을 보호하며 다수의 접근이 발생할 경우 처리를 분산 시킬 수 있는 방법을 제시한다. 그리드 미들웨어인 글로 버스가 스토리지와 서버 상에서 CA인증을 담당하며 파일 전송을 담당하는 RFT는 스토리지의 Replica를 관리하는 RLS서버의 정보를 사용 하여 멀리 떨어져 있는 복제된 데이터와의 관계를 기억하고 접근시 가장 가용성이 뛰어난 머신에서 데이터를 불러온다. 이런 글로버스의 서비스 들은 중요하며 고용량이 데이터를 분산 시킴으로써 데이터의 지역성을 높여 재사용 혹은 동시 접근시 처리 시간을 단축 시킬 수 있다. 본 논문은 그리드 환경을 접목하여 이러한 서비스를 구현할 경우 높은 신뢰성과 접근의 신속성을 보장할 수 있다고 제시한다.
-
저가화, 소형화, 지능화되고 있는 RFID 칩은 조달, 국방, 우편, 교육, 문화, 교통 및 환경 등의 다양한 분야에 적용되고 있다. 본 연구는 이러한 RFID를 생명공학의 핵심기술인 PCR 기술을 수행하는 Thermal Cycler에 도입하였다. 이는 사용자가 RFID 리더기를 장착한 Thermal Cycler 장비에 본인의 RFID 태그를 인식시켜 별도의 login을 하지 않고도 실험에 쓰인 protocol에 손쉽게 접근할 수 있도록 한다. 또한 사용자 본인의 RFID 태그를 사용하기 때문에 같은 장비를 사용하는 다른 사용자나 제 3의 인물로부터 실험내용을 보호함으로써 보안성을 높일 수 있다.
-
본 연구에서는 제한된 온도 영역에서 보통 정밀 온도 측정 소자로 많이 쓰이는 NTC 써미스터를 사용하여 전압 분배 회로(voltage divider circuits)를 구성하였다. 분압 저항이 온도측정 해상도에 미치는 영향을 분석하고, 회로의 분압 저항을 결정하는 방법으로서 측정하고자 하는 온도 구간의 최대 온도와 최저 온도의 NTC 써미스터 저항 값을 조화평균을 사용하여 분압 저항(divider resistance)으로 사용하였다. 선택한 분압 저항이 이상적인 저항인지에 대하여 조화평균으로 계산한 분압 저항과 대조군 저항으로 전압 분배 회로를 병렬로 구성하였다. 센서들을 항온조 넣어 설정온도(
$50^{\circ}C$ ,$70^{\circ}C$ ,$90^{\circ}C$ )에서 각각의 온도를 측정한 후 측정 데이터의 표준편차를 구하여 평균 온도 분해능을 비교 하는 실험을 하였다. 실험결과 측정온도 구간의 최대 온도와 최소 온도에서의 NTC 써미스터 저항 값을 조화평균으로 계산한 분압 저항 값이 대조군 저항에 비해 설정온도에서 보다 높은 평균 온도 분해능(sensing resolution)을 보였다. -
본 연구에서는 다양한 density profile 특징추출에 기반한 염색체 자동분류방법들의 성능을 비교분석하였다. density profile은 염색체의 밴드패턴을 가장 잘 표현한 특징으로 염색체의 중심축을 구성하는 화소들의 밝기 값을 추출하는 방법이다. 염색체의 밴드패턴은 염색체의 끝단까지를 잘 표현해주어야만 정확한 염색체번호를 확인할 수 있다. 따라서 염색체의 중심축을 추출하여 염색체 끝단까지 확장 처리한 방법에 대한 성능을 확인하였다. 염색체 중심축에 위치한 화소만을 이용한 프로파일은 잡음에 민감할 수 있으므로 이를 해결하기 위하여 염색체의 중심축에 대한 화소 값 대신 주변 밝기 값들에 대한 평균을 이용한 국소평균방법과 중심축의 수직라인 상에 존재하는 화소 값들에 대한 평균을 구한 수직평균방법을 비교하였다. 분류알고리즘은 k-NN을 사용하였고, 실험데이터는 (주)Gendix 로부터 제공받은 임상적으로 정상인 100명(남자 50명, 여자 50명)으로부터 추출한 4600개의 염색체 영상을 훈련데이터와 테스트데이터로 각각 50%씩 랜덤하게 분리하여 실험하였다. 실험결과 중심축을 확장하고 수직평균에 대한 프로파일을 특징으로 추출하여 분류한 경우가 가장 좋은 성능을 보였다.
-
심전도는 가장 일반화되어 있는 생체신호의 하나이다. 심전도를 측정하여 심장병의 유무와 여러 질환들을 예측하고 예방할 수 있다. 심전도 신호를 추출 하는 방법에는 여러 방법이 있는데, 본 논문에서 활용한 두 논문은 계층적인 분류로 HOS, HBF, HMH 세 방법으로 실험을 하였고, 적응가변형 윈도우를 이용한 R파 추출을 실행하였다. 두 논문은 공통적으로 MIT-BIH Arrhythmias Database(MIT-BIT 부정맥 데이터베이스)를 데이터로 실험 하였으며, 알고리즘으로는 SVM, Cross-Validation등을 사용하였다. 마지막으로 두 논문의 실험결과를 바탕으로 정확도를 높일 수 있는 효과적인 알고리즘 연구를 제안하였다.
-
MicroRNA는 RNA로 전사된 유전자와의 상보결합을 통해 유전자 발현을 억제하는 조절인자이다. MicroRNA 생성과정에서 pre-microRNA의 3' 또는 5' 부근의 strand가 선택되어 mature 시퀀스가 되고 유전자 조절에 직접 작용하게 된다. 하지만 어떤 특징을 가진 strand가 선택 되는지에 대한 정확한 메커니즘은 아직 연구되어 있지 않다. 본 논문에서는 microRNA 시퀀스 정보를 바탕으로 하이퍼망을 구성하여 strand 선택 예측 모델을 구축하였다. 실험 결과 하이퍼망 학습을 통해 microRNA strand 선택에 중요한 영향을 미치는 시퀀스 특징을 찾을 수 있었고, strand 선택을 높은 정확도로 예측할 수 있음을 확인하였다.
-
본 논문에서는 단백질 간 상호작용 자동 식별을 위해서 구문 트리 커널을 확장한 시맨틱 구문 트리 커널을 제안한다. 기존의 구문 트리 커널은 구문 트리의 단말 노드를 구성하는 개별 어휘에 대해서 단순하게 외형적 비교를 수행하기 때문에 실제 의미적으로는 유사한 두 구문 트리의 커널 수치가 상대적으로 낮아져서 단백질 간 상호작용 식별의 성능이 떨어지는 문제점이 발생한다. 이를 극복하기 위해서 두 구문 트리의 구문적 유사도(syntactic similarity)와 어휘 의미적 유사도(lexical semantic similarity)를 동시에 효과적으로 계산하여 이를 결합하는 새로운 커널을 고안하였다. 그리고 제안된 시맨틱 구문 트리 커널을 활용하여 단백질 간 상호작용 식별 성능을 향상시킬 수 있음을 실험을 통하여 보여주었다.
-
현대 한국어 문장에는 (1) 여러 가지 부사절이 포함된 경우, (2) 길이가 긴 경우, (3) 여러 가지 기호를 포함한 경우, (4) 수와 단위 표현이 있는 경우, (5) 영어 등 외국어가 포함된 경우, (6) 혹은 (1)(2)(3)(4)(5)를 모두 포함한 경우가 많다. 따라서 현대 한국어 문장을 구문 처리하기 위해서는 전처리(preprocessing) 과정이 필수적이라고 생각한다. 전처리 과정에서는 문장 표면 분석을 수행하고 문장 분할도 수행하여 입력 문장을 구문 처리가 가능한 형태로 바꾸어야 한다. 본 논문에서는 현대 한국어 문장을 구문 처리하기 위한 표면 분석 방법과 분할 방법을 논의한다. 또한 한국어 구문을 나타내는 분할 구조 문법의 예도 제시한다.
-
영한기계번역은 영어와 한국어 사이에 많은 언어적인 차이가 존재하며 이를 효과적으로 해결해야 한다. 규칙기반의 영한기계번역에서는 언어간의 차이를 어휘, 구문, 변환 등의 규칙을 이용하고 숙어 등의 사전정보를 활용하는 방법이 적용되고 있으나 한계가 있다. 본 논문에서는 두 언어간의 차이를 해소하는 방안으로 전처리를 적용하였으며 규칙기반의 영한기계번역에서 요구되는 전처리작업에 대해서 연구하였다. 전처리작업은 전처리문제와 해결방안으로 구성되는데, 언어간의 차이해소에 필요한 전처리문제를 조사하여 전처리문제가 영한기계번역의 어떤 단계에서 다루어져야 할지에 의해 문제들을 구분하였으며 이를 해결하기 위한 방안을 고안하여 본 논문에서 제시하였다.
-
복합명사의 구성요소로 미등록어, 1음절어, 접사 등이 포함된 경우에 복합명사 분해기의 분해 결과가 분해중의성을 보이게 된다. 특정 복합명사에 대한 분해 결과가 잘못된 것일 경우, 이를 분해 오류로 판단하고, 재처리과정을 통해 교정해야 한다. 본 논문에서는 복합명사의 분해 결과에서 분해 오류에 대하여 각 구성명사의 빈도 정보를 통해서 오류 여부를 판단하고, 적절한 재분해 결과를 제공하여 분해 오류를 교정하는 방법을 제안한다.
-
웹 2.0시대의 도래에 따라 많은 소비자들은 상품에 대한 다양한 의견을 표현할 수 있게 되었다. 이러한 의견들을 활용하여 상품평 요약 시스템 등이 개발되었다. 어휘의 의미 극성은 이러한 시스템에서 활용될 여지가 많은 요소이다. 영어의 경우 어휘의 의미 극성을 판단하는 연구가 많이 진행되어 어느 정도 결실을 맺었지만, 우리말의 경우 어휘의 의미 극성을 판단하는 연구는 아직 미흡하다. 본 논문에서는 우리말 어휘의 의미 극성을 PMI를 사용하여 판단한다. 또한 PMI를 우리말 어휘에 적용할 때 문제가 되는 이슈를 살펴보고 이에 대한 해결 방법들을 제시한다. 나아가 실제 상품 평에서 많이 쓰이는 형용사에 대하여, 제시한 의미 극성 판단 방법의 성능을 검증해 본다. 제시한 방법은 어휘의 의미 극성을 81%의 정확도로 판단해 주었다.
-
본 논문에서는 구두점이나 띄어쓰기가 없는 비형식적인 문서에서도 문장의 경계를 잘 인식할 수 있는 문장 경계 인식기를 제안한다. 기존의 문장인식기는 문장경계의 후보를 구두점 출현 위치만으로 하였는데 이는 잡음이 많은 웹문서를 처리하는데 한계가 있다. 반면에 제안한 방법은 문장 경계의 후보를 구두점의 출연 위치로 제한하지 않고 문장 경계 인식을 위한 자질로 구두점에 비 의존적인 음절 n-gram을 사용함으로써, 구두점이 잘 표현된 문서뿐만 아니라 구두점의 생략이 빈번한 웹문서의 문장 경계 인식까지 효과적으로 수행할 수 있다. 통계기반의 기계학습 기법으로 CRFs를 이용하여 하였고, 학습과 실험에 세종계획 말뭉치를 사용하였다. 제안한 문장 경계 인식기는 세종계획 말뭉치에서 99.99%의 정확률과 100.00%의 재현율을 보였고, 세종계획 말뭉치에서 문장 경계의 구두점을 제거한 경우에도 96.20%의 정확률과 87.51%의 재현율을 보여 구두점이 없는 경우에도 문장 경계 인식이 잘이루어짐을 확인할 수 있었다.
-
한글 근사 단어 검색 시스템은 사용자의 오류를 포함한 검색 질의에 효과적으로 대응할 수 있는 방법이나 검색 속도가 매우 느려서 실제 사용에 큰 어려움이 있다. 일반적으로 DNA 검색에 사용하는 서열 정렬 기법을 사용할 경우 데이터 베이스의 모든 문자열과 비교가 이루어져야 하기 때문에 많은 검색 시간이 걸리게 된다. 이것을 해결하기 위해 우리는 편집거리가 metric space를 만족하는 성질을 이용한 한글 근사단어 검색 시스템을 사용하여 실제 서열정렬을 사용하여 비교가 필요한 후보 단어를 거르게 된다. 이 한글 근사 단어 검색 시스템에서 가장 중요한 것은 기준축의 역할을 하는 Base-Pivot의 선택 방법이다. 본 논문에서는 이 Base-Pivot의 효율적인 선택방법을 실험을 통해서 분석하도록 한다.
-
문서 표절과 관련된 이슈가 급증함에 따라 유사 문서 탐색과 관련한 연구가 활발히 진행되고 있다. 특히 인터넷의 발달로 인해 일반 사용자가 수많은 전자 문서에 쉽게 접근할 수 있게 됨에 따라 대용량 문서 집합에 대한 탐색 속도와 정확성의 중요성도 커지고 있다. 대용량 문서 집합 내에서 빠른 시간 내에 유사 문서를 탐색하는 방법에는 전역 사전을 이용하여 후보 문서 쌍(유사할 가능성이 높은 문서의 쌍)를 추출한 후 찾아낸 후보 문서 쌍에만 정밀한 검사를 수행함으로써 검사 시간을 줄이는 방법이 존재한다. 이 때, 후보 문서를 찾아내기 위하여 전역 사전(Global DICtionary, GDIC)이라는 자료 구조를 이용하게 되는데, 이 전역 사전을 효과적으로 사용하면 후보 문서 쌍을 찾아내는 시간을 기존보다 더욱 줄일 수 있다. 본 논문에서는 전역 사전을 더욱 효과적으로 활용하여 후보 문서 쌍 검색 시간을 대폭 줄이는 방법에 대해 기술하며, 어느 정도의 성능 향상이 있는지 실험을 통해 측정하였다. 20,000건의 실험용 말뭉치 자료와 6263건의 실존하는 보고 문서에 대해 실험한 결과, GDIC 생성에서 2.5~4,6%, 후보 문서 쌍 탐색에서 1%~15.4% 정도의 성능이 향상된 것을 확인할 수 있었다. 추후 update query를 최소화하여 GDIC 생성시간을 추가로 줄이는 방법에 대해 연구할 계획이다.
-
최근 컴퓨터와 네트워크의 기술 발달로 멀티미디어 데이터가 폭발적으로 증가하고 있다. 따라서 정보검색 시스템도 텍스트 데이터 위주에서 벗어나 멀티미디어 데이터 검색이 큰 비중을 차지하고 있다. 또한 멀티미디어 데이터 질의어처리도 기술적인 변화와 함께 다양한 질의어 확장으로 검색의 정확성을 높이고 있다. 본 논문에서는 인간의 감성에 대한 '재미' 주제 온톨로지를 구축하여 질의어 확장에 응용하였고, 한편의 동영상에서 재미 요소를 찾아내는 멀티미디어 데이터 검색 시스템을 구축하였다. 온톨로지 구축은 한글 워드넷(KorLex)에서 "재미"라는 특정 감소 요소의 의미 계층 구조를 파악하고 토픽맵을 이용하여 구축하였다. 또한, 온톨로지에 정의된 용어들 사이의 가중치는 실시간으로 계산하여 질의어를 확장에 적용하였으며, 따라서 검색의 효율성과 질을 높였다. 검색방법은 사용자가 질의어를 직접 입력하는 텍스트 입력 검색과 온톨로지 구조를 이용한 GUI 인터페이스 검색방법으로 나누어 사용자의 편의성을 증대시켰다.
-
인터넷이 대중화됨에 따라 누구나 쉽게 자신의 의견을 온라인상에 표현할 수 있게 되었다. 그 결과 생각이나 느낌을 나타내는 의견 데이터들의 양이 급속도로 방대해졌으며, 이러한 데이터들을 이용한 여러 응용 사례들의 등장으로, 효율적인 검색 및 자동 분류 기술이 요구되고 있다. 이런 기술적 흐름에 맞추어 의견 데이터 분류에 관한 여러 연구들이 이루어져 왔다. 이러한 의견 분류에 대한 연구들을 살펴보면, 분류를 위해 자질(Feature)로서 사용한 단일어(Single word)가 아닌 2개 이상의 N-gram 단어, 어휘 구문 패턴 및 통사 구문 패턴 등을 사용한다. 특히, 패턴은 단일어나 N-gram 단어에 비해 유연하고, 언어학적으로 풍부한 정보를 표현할 수 있기 때문에 이를 주요 연구 주제로 사용되었다. 그럼에도 불구하고, 이러한 연구들은 주로 영어에 대한 연구들이었으며, 한국어에 패턴을 적용하여 주관성을 갖는 문장을 분류하거나, 극성을 분류하는 연구들은 아직 미비하다. 한국어의 특색으로 한국어는 용언의 활용이 발달되어 있어, 어미의 변화가 다양하며, 그 변화에 따라 의미가 미묘하게 변화한다. 그러나 기존 한국어에 대한 의견 분류 연구들은 단어의 핵심 의미만을 파악하기 위해 어미 부분을 제거하고 어간만을 취해서 처리하여 어미에 대한 의미변화를 고려하지 못하므로 분류 정확도가 영어권에 연구 결과에 비해 떨어진다. 그래서 본 연구는 영어에 적용된 패턴을 이용한 기존 방법들을 정리하고, 그 방법들 중에서 극성을 지닌 문장성분 패턴을 한국어에 적용하였다. 그리고 어미의 변화에 대한 패턴을 추출하여 이 변화가 의견 분류의 성능에 미치는 영향을 분석하였다.
-
의견의 주체를 찾는 일은 의견 분석의 결과를 활용 하는데 있어 필수적인 분야이다. 본 논문은 발안자를 찾는 시스템의 성능을 높이기 위해 이전논문에 제안하였던 단어에 의견주체의 후보로서의 점수를 부여하는 방법을 개선하였고 미등록어 문제를 해결하기 위해 taxonomy에 의존하여 기존단어의 점수를 이용하는 방법을 제안하였다. 본 논문에서 제안한 방법은 Baseline과 비교하여 F1값이 18.9% 증가하였다.
-
본 논문에서는 어휘정보를 사용하는 한국어 구문분석 성능과 거의 비슷한 성능을 내는 비어휘정보 한국어 의존 구문분석에 대해서 설명한다. 본 논문에서는 어휘정보를 대신해서 품사정보와 어절 구문태그 정보를 사용하고 CRFs를 사용하여 레이블링 방법으로 구문분석 한다. 자질을 변경하여 어절 처음에 나타나는 용어 정보와 뒤 어절의 용언 정보를 추가하였다. 본 논문에서 제시하는 실험 결과(어절:85.73%, 문장:43.86%)는 현재 최고의 성능을 내는 어휘정보 사용 한국어 구문분석과 비슷하다. 본 논문에서 제안한 비어휘정보 구문분석 방법은 어휘정보 구문분석에 비해 모델 사이즈가 작고 처리방법이 간단하여 쉽게 다른 도메인에 적용이 가능할 것으로 기대한다.
-
본 논문에서는 온라인 학습을 이용한 한국어 의존구문분석 방법을 제안한다. CoNLL-X에서 1위를 차지한 그래프 기반 의존구문분석 방법을 한국어에 맞게 변형하고, 한국어의 교착어적 특성을 고려해 한국어에 적합한 자질 집합을 제시하였다. 특히 의존트리의 에지(edge)를 단어와 단어간의 의존관계가 아닌 부분트리(partial tree)와 부분트리의 의존관계로 바라보기 위해 부분트리가 공유하고 있는 기능어 정보를 추가 자질로 사용하였다. 또한 한국어의 지배소 후위(head-final) 언어 특성과 투사성(projectivity)을 이용하여 Eisner(1996) 알고리즘을 사용하지 않고도 O(
$n^3$ )의 CYK알고리즘을 사용할 수 있었고, 이를 이용해 최적의 전역해(global optimum)를 찾을 수 있었다. 각 자질을 위한 최적의 가중치 벡터는 온라인 학습방법 중 하나인 Collins(2002)의 averaged perceptron 알고리즘을 사용함으로써 빠르게 모델을 학습할 수 있었다. 제안 모델을 국어정보베이스(KIBS) 말뭉치에 적용한 결과 어절 단위 정확률 88.42%의 높은 성능을 얻을 수 있었다. -
최근 세계화의 흐름 속에 경제영역에서 더 높은 수준의 국가간 협력과 공조를 필요로 하는 실정이다. 하지만 복잡한 이해관계 속에서 적절한 무역 전략을 취하는 것은 쉬운 일이 아니다. 본 논문에서는 무역정책의 방향을 수립함에 참고하기 위한 방법으로, 국제 무역의 주체가 되는 국가를 진화 에이전트로 구성하고 이차원 공간상에 배치시켜 국제무역현상을 모델링 하였다. 국가 에이전트는 다양한 속성을 기반으로 구성되며, 진화 연산을 적용하여 무역 전략을 국제무역정세에 따라 동적으로 변화하도록 하였다. 국제무역에서 중요한 요인인 국가협력관계와 상대적 무역정책에서 파생되는 무역이익은 게임이론을 적용하여 모델링하였다. 다수의 실험을 통하여 본 모델링 방법이 실제 무역 현상을 재현함을 확인하였으며, 특히 상대 국가별 발전 정도에 따라 정책을 변화시키는 것이 자국의 이익을 추구에 중요한 요소임을 확인하였다.
-
유비쿼터스 컴퓨팅은 사용자의 개입을 최소화하고 상황과 사용자의 목표에 적합한 서비스를 자율적으로 제공하는 것을 목표로 한다. 이를 위해 이전 연구에서는 유비쿼터스 환경 내의 서비스들을 체계적으로 기술하고 구조화함으로써 사용자의 목표 달성을 위해 필요한 서비스를 동적으로 탐색할 수 있도록 유비쿼터스 서비스 온톨로지를 제안한 바 있다. 하지만 상황을 만족시키는 서비스들이 다중으로 존재할 때 후보 서비스들 중에서 최적의 서비스와 실행 기기를 결정하기 위한 방법을 제시하지는 못하였다. 따라서 본 논문에서는 최근 국내외적으로 이슈가 되고 있는 유비쿼터스 홈에서의 에너지 관리에 초점을 맞추어 상황과 에너지 절약뿐만 아니라 사용자의 만족도까지 복합적으로 고려할 수 있는 서비스/기기 선택을 위한 정책 온톨로지를 제안한다. 정책 기반의 서비스 온톨로지를 통해 유비쿼터스 홈에서의 자율적인 에너지 관리 서비스가 가능해질 것이다.
-
시맨틱 웹 및 온톨로지 기술은 인터넷에 존재하는 방대한 데이터를 자동적으로 처리하기 위한 대안으로써 다양한 분야에서 적용하기 위한 연구가 진행되고 있다. 이를 통해 각 분야에 대한 정보자원이 차츰 컴퓨터가 처리할 수 있는 형태의 웹으로 진화하고 있지만 국내의 의약품 관련 정보는 정보자원에 대한 의미적인 표현이 부족할 뿐만 아니라 주제별로 각기 다른 웹사이트들에 분산 되어, 필요한 정보들이 여러 사이트들에 중복되어 있다. 그리고 연관이 있는 정보간의 연결이 부족하여 일반 사용자뿐만 아니라 의약품 전문가들도 원하는 자료를 효율적으로 검색하고 활용하기가 쉽지 않다. 이에, 우리는 의약품 정보들의 관계를 표현하여 의약품 정보의 효율적인 검색 및 광범위한 활용이 가능하게 하기위한 연구를 진행하였다. 본 논문에서는 한국식품의약품안전청에서 제공하고 있는 7개의 웹사이트에서 제공되는 23종의 의약품 관련 정보를 수집 분석한다. 그리고 온톨로지 기술을 활용하여 여러 웹사이트에 흩어져 있는 의약품 정보의 연결성을 분석하고 표현한다. 본 논문에서 보이는 의약품 정보 및 관계의 표현은 효율적인 의약품 관련 정보 검색에 활용이 가능하며 향후 분산된 의약품 관련 정보의 통합 및 운영에 있어 도움이 될 것으로 기대한다.
-
본 논문은 차분 진화 알고리즘의 최적해 탐색 능력을 향상시키기 위해 병렬 처리기법을 적용한 기법을 제안한다. 이를 위해서 기존의 개체군들을 5개의 그룹으로 나누어서 독립적으로 최적화 과정을 하도록 하여 일정한 확률에 의해서 각 그룹이 다른 그룹의 Best individual들을 변이 과정에서 참조하도록 하였다. 이러한 방식을 통해서 기존 차분 진화 알고리즘이 가지고 있는 지역해 수렴 문제를 해결하는 할 수 있도록 하였다. 실험을 통해서 제안된 차분 진화 알고리즘(P-DE)의 탐색 능력을 비교 및 분석 하였다. 실험 결과 제안된 차분 진화 알고리즘(P-DE)이 지역해 수렴 문제를 충분히 해결함으로써 기존의 알고리즘에 비해서 우수한 성능을 보이는 것을 확인 하였다.
-
최적해를 구하는 효과적인 방법 중 하나인 GA (Genetic Algorithm)은 높은 품질의 해를 구하기 위해서 많은 연산시간이 필요하지만, GPU (Graphics Processing Unit)의 높은 데이터 병렬처리 능력과 우수한 부동소수 연산능력을 이용하면 빠르게 처리 가능하다. 이 논문에서는 GPU를 이용하여 가속한 섬 기반의 RVGA (Real-Valued Genetic Algorithm)와 GPU를 이용하지 않는 RVGA를 비교하여 평가하였으며, 또한 GPU를 이용하지만 RVGA가 아닌 Simple GA인 경우와도 비교하여 평가 하였다. 그 결과, GPU를 이용한 경우 속도 향상을 할 수 있었으며, Simple GA보다 RVGA가 더 속도가 향상되었다.
-
컴퓨터 기술의 발달 및 웹의 확산으로 인해 개인이 얻을 수 있는 정보의 양이 증가되었지만, 이로 인해 필요한 관련 정보를 탐색하는 것과 다량의 정보로부터 지식을 창출한다는 것이 어렵게 되었고, 고객 또는 사용자에 대한 학습 과정 및 정보의 개인화 등의 문제가 대두되게 되었다. 이러한 문제들을 해소하기 위해 웹으로부터 정보를 얻을 수 있는 자동화된 툴이 필요하게 되었고, 얻은 정보를 이용하여 웹 사용자들의 패턴을 식별할 수 있는 방법 또한 필요하게 되었다. 이러한 관심은 데이터 마이닝을 온라인에서 적용하고자 하는 노력으로 이어졌고, 현재 데이터 마이닝 기술을 온라인에 적용한 웹 마이닝 기술을 사용하고 있다. 웹 마이닝은 웹의 방대한 양의 자료 및 구조를 좀 더 유용하고, 효율적인 정보로 가공하여 사용자에게 제공할 수 있도록 도와주는 기술이다. 본 논문에서는 웹 마이닝의 전반적인 개념과 분류를 소개한다. 또한, 웹 마이닝의 분류 중 웹 구조 마이닝에 초점을 맞추어 개념 및 웹 구조 마이닝의 대표적인 알고리듬을 소개한다.
-
오늘날 인터넷 사용자들은 블로그나 뉴스 등의 매체에서 트랙백을 사용해 자신의 의견을 보다 자유롭게 나타낸다. 그러나 이러한 자유로움을 악용해 트랙백 스팸을 유발하여 네트워크의 자원을 낭비하고 방문자들에게 잘못된 정보를 전달해 해당 포스트의 신뢰를 떨어뜨린다. 트랙백 스팸은 유명한 포스트와 연계하여 자신의 포스트로 사용자들을 유도하는 특징을 가지기 때문에 일반적인 웹 스팸을 탐지하는 기술을 적용하기 어렵다. 따라서 본 논문에서는 자신이 작성한 글이 다른 사람의 글과 관련이 있다고 생각하여 다른사람의 글에 자신의 글을 링크시키는 트랙백의 특성을 이용하여 원본 페이지와 트랙백 페이지 그리고 트랙백 페이지의 아웃링크 내용상의 유사도와 동시 출현(co-occurrence) 정보를 이용하여 트랙백 스팸을 처리하고자 한다.
-
본 논문에서는 Isomap을 통해 기상 정보에서 특징을 추출하여, 보다 향상된 오존 경보 예측시스템의 구현을 제안한다. 큰 흐름은 전처리 과정과 특징 추출 과정 및 후처리 과정을 통해 정제한 데이터를, 기계 학습에 널리 사용되고 있는 SVM (Support Vector Machine) 등의 분류기로 오존 경보에 대한 예측을 하여 성능을 측정한다. 또한, 압축된 데이터를 분석하여 원 데이터에서의 중요한 특징들이 무엇이었는지를 분석하였다. 분류기의 실험 결과, 기후 데이터에서의 특징 추출은 제안된 Isomap 방법이 PCA 방법에 비해 성능이 우수한 것을 알 수 있었으며, 원래 데이터를 분류한 결과에 비해서는 15~35%정도가 향상되었다. 그리고 실험에 사용된 72가지의 Feature들 중, Tb, WSa, WSp 의 정보가 오존 경보 예측에 주요한 요인 인 것으로 분석되었다.
-
질의를 이용한 정보 검색 기술에서 단어 의미의 모호성에 의해 사용자가 검색 하고자 하는 주제 이외의 문서 까지 검색되고 있다. 이러한 문제는 모바일기기의 검색 환경에서 두드러진다. 모바일에서의 검색은 문서의 로딩속도가 느리며 작은 화면에 의해 스크롤이 잦다. 그러므로 원하는 검색 결과가 검색 첫 페이지 이외에 위치하거나, 또는 페이지 하단에 위치할 경우 검색 결과를 확인하는 대에 많은 시간과 노력이 필요하다. 이러한 문제를 해결하기위해선 단어 의미의 모호성을 해결하고 사용자가 검색하고자하는 주제의 검색결과를 검색 상위에 위치시킬 수 있는 방법을 필요로 한다. 이 연구에서는 연관 단어 추출과 TF*IDF를 이용하여, 검색결과를 re-ranking하는 방법을 제시한다.
-
많은 연구로부터 다양한 온톨로지들이 구축되었다. 온톨로지가 표현하는 영역이 점차 넓어짐에 따라 온톨로지의 크기가 증가하였으나 이를 위한 효율적인 저장방법은 연구되지 않았다. 또한 다양한 온톨로지의 사용방법 중 서술 논리를 사용한 추론은 온톨로지의 크기가 작아도 연산이 매우 많이 필요하여 실제로 사용하기가 매우 어렵다. 본 논문에서는 점차 커지는 온톨로지를 효과적으로 저장하기 위하여 온톨로지를 컴퓨터 클라우드에 저장하는 방법과 컴퓨터 클라우드에 저장된 온톨로지를 추론하기 위한 프레임워크를 제안한다. 그리고 실험을 통하여 제안한 방법이 기존의 방법에 비하여 효율적임을 보였다.
-
본 논문은 가정용 청소로봇이 대중화가 이루어지면서 많은 종류의 청소로봇들이 개발되고 있지만 대부분의 청소로봇들이 외부 환경과 상호적으로 대응하지 못하고 무작위 경로 생성에 가까운 알고리즘들을 적용하고 있는 점에서 착안하였다. 목표로 하고 있는 경로 탐색 기법은 대부분의 가정용 청소로봇이 장착하고 있는 범퍼 센서를 사용하여 논리적인 가상의 지도를 생성하고 이 정보를 활용하여 청소로봇의 위치를 파악하고 최적의 청소 경로를 생성하는 방법이다. 사람이 진공청소기를 사용하여 청소를 하듯이 청소할 공간을 파악하고 일련의 규칙대로 청소하는 무의식의 프로세스를 청소로봇이 최대한 유사하게 작동하기 위해서는 벽뿐만 아니라 소파나 테이블과 같은 로봇의 움직임을 방해하는 각종 요소들을 모두 고려해야 한다. 그러므로 본 논문에서는 Occupancy Grid Map을 생성하여 로봇이 장애물의 위치를 파악하고 청소 경로를 탐색할 수 있도록 한다. 그리고 이러한 경로 탐색 기법을 적용하기 위해서 Monte-Carlo Localization 알고리즘을 사용하며 생성된 Occupancy Grid Map을 통하여 로봇이 자체적으로 위치를 파악할 수 있도록 한다. 청소로봇이 자체의 위치를 파악하게 되면 로봇의 크기와 비교하여 움직일 수 있는 공간과 움직이지 못하는 공간을 구별하여 이동 가능한 영역과는 별개로 청소를 위한 경로 탐색을 수행할 수 있다. 청소를 목적으로 하는 경로 탐색은 청소 영역을 최대화하면서 최적의 경로를 탐색하고 Localization을 통해 해당 경로를 유지하면서 이동할 수 있게 된다. 이러한 경로 탐색 기법을 제시하면서 기존의 청소로봇들과의 알고리즘 차원에서의 비교 및 그 성능 평가는 향후 연구에서 해결하도록 한다.
-
본 논문에서는 뉴스 텍스트 마이닝을 수행하여 2005년 1월부터 2008년 12월까지 4년 간의 뉴스 데이터에 대해 주가에 호재인지 악재인지 여부에 대해 학습을 하고, 이를 근거로 신규 발행된 뉴스가 주가 상승 또는 하락에 영향을 미치는지를 예측하는 알고리즘을 제안한다. 뉴스 텍스트 마이닝을 위해 변형된 Bag of Words 모델과 Naive Bayesian 분류기법을 사용하였으며, 특히 주가 예측에 있어서 뉴스 마이닝에만 의존하던 기존의 관련 연구와는 달리 예측의 정확성을 높이기 위해 주가의 시계열 데이터 분석기법인 RSI를 추가로 작용하였다. 2009년 11월부터 2010년 2월까지 4개월간 42,355건의 뉴스 데이터에 대해 실험한 결과, 기존 연구 대비 의미 있는 결과인 55.01%의 예측성공률을 얻었다.
-
인터넷의 영역이 확대됨에 따라 인터넷에서 다양하고 많은 정보를 제공받게 되었다. 뉴스의 영역도 그중 하나로 신문사, 방송사 등의 많은 언론사들이 인터넷으로 서비스를 확대함에 따라 뉴스 정보의 과다현상이 일어나게 되었다. 이 때문에 사용자는 방대한 뉴스들 중에서 원하는 뉴스만 걸러서 보기를 원하게 되었고 이를 위한 뉴스 필터링 방법이 연구되었다. 뉴스 필터링 기술들은 주로 사용자의 관심 사항을 예측하여 제공해 주는 뉴스 추천 시스템을 위한 기술 개발에 초점을 두었다. 그러나 기존의 뉴스 필터링 기술들은 사용자의 관심 있어할 만한 뉴스를 추천할 뿐, 관심 없는 뉴스를 제외시키지는 못한다. 예를들어, 어떤 특종 사건이 생기면 이 사건을 보도하기 위한 뉴스들이 각 언론사 마다 생성되고, 뉴스 추천서비스를 사용하는 사용자는 기존의 뉴스 필터링 방법에 의해 사용자가 관심 있다고 예측되는 이 사건에 대한 뉴스를 제공받게 된다. 그러나 사용자가 이미 추천된 뉴스 중 하나의 뉴스 혹은 그와 동일한 내용의 다른 언론사에서 제공되는 뉴스를 읽었다면 추천된 뉴스는 이미 알고 있는 정보이므로 사용자는 이 뉴스에 대하여 관심이 없을 것이다. 기존의 뉴스 필터링 방법은 추천 시 중복된 뉴스를 제거하지 못하는 문제점을 지닌다. 이 논문은 이러한 문제점을 해결하기 위해 육하원칙 기반의 필터링 방법을 제시하고, 실험을 통해 이 논문이 제시한 방법의 장단점을 보인다.
-
인간의 학습과 기억현상에 있어서 멀티모달 데이터를 사용하는 것은 단순 모달리티 데이터를 사용하는 것에 비해서 향상된 효과를 보인다는 여러 연구 결과가 있어왔다. 이 논문에서는 인간의 순차적인 정보처리와 생성현상을 기계에서의 시뮬레이션을 통해서 기계학습에 있어서도 동일한 현상이 나타나는지에 대해서 알아보고자 하였다. 이를 위해서 가중치를 가진 랜덤 하이퍼그래프 모델을 통해서 순차적인 멀티모달 데이터의 상호작용을 하이퍼에지들의 조합으로 나타내는 것을 제안 하였다. 이러한 제안의 타당성을 알아보기 위해서 비디오 데이터를 이용한 문장생성을 시도하여 보았다. 이전 장면의 사진과 문장을 주고 다음 문장의 생성을 시도하였으며, 단순 암기학습이나 주어진 룰을 통하지 않고 의미 있는 실험 결과를 얻을 수 있었다. 단순 텍스트와 텍스트-이미지 쌍의 단서를 통한 실험을 통해서 멀티 모달리티가 단순 모달리티에 비해서 미치는 영향을 보였으며, 한 단계 이전의 멀티모달 단서와 두 단계 및 한 단계 이전의 멀티모달 단서를 통한 실험을 통해서 순차적 데이터의 단계별 단서의 차이에 따른 영향을 알아볼 수 있었다. 이를 통하여 멀티 모달리티가 시공간적으로 미치는 기계학습에 미치는 영향과 순차적 데이터의 시간적 누적에 따른 효과가 어떻게 나타날 수 있는지에 대한 실마리를 제공할 수 있었다고 생각된다.
-
기후온난화, 국지성 호우 및 대규모 태풍으로 인한 피해가 증대되면서 사회 경제적 손실 또한 날로 증가하고 있어 재해로 인한 피해 발생가능성을 효율적으로 예측하는 모델을 통한 선제적 대응이 필요하다. 재난 재해의 위험성 분석 방법은 주로 확률 통계기법을 기반으로 하는 연구가 주류를 이루었으나, 본 논문에서는 포착된 현상의 데이터를 이용해 그 데이터를 지배하는 경험적 규칙성을 학습하고 획득하는데 다른 기법보다 탁월한 성능을 가진 신경망 모델을 적용하여 자연재해 피해예측 모델을 연구하였다. 1991년부터 2005년 사이에 우리나라에서 발생한 자연재해의 피해자료와 기상개황 자료를 이용하여 지역별 자연재해로 인한 피해를 예측하는 신경망 모델은 우리나라 232개 행정구역에 대하여 누적강우량과 최대풍속, 그리고 재해사상 발생 5일 이내의 선행강우량을 입력변수로 하고 총 피해액을 출력변수로 한다. 또한 학습을 통한 최적의 해를 찾기 위해 신경망의 매개변수 학습률, 모멘텀, 편의값을 유전자알고리즘으로 결정하여 학습을 수행 하였다.
-
논문에 부여되는 저자 주제어(author keyword)는 논문을 분류 및 검색하는데 활용될 수 있다. 이렇게 주제어를 부여할 때 자동으로 저자 주제어를 추천한다면 사용자에게 편리성을 제공하고 저자가 직접 부여한 저자 주제어 이외에 추가적으로 주제어가 있는지도 확인할 수 있어 유용하다. 본 연구에서는 논문에 달려있는 다수의 주제어 중 하나의 주제어를 선별하여 Labeled LDA를 이용해 주제어와 초록(abstract)의 관계를 학습했다. 이후 초록이 주어지면 자동으로 저자 주제어를 부여할 수 있도록 추천하는 기법을 제안하고 그에 따른 실험을 진행했다. 본 논문에서는 실험을 통하여 기계학습을 이용한 저자 주제어의 추천이 어느 정도의 성능을 보이는지 평가하고 향후 연구의 방향을 제시한다.
-
본 논문에서는 영상인식에서 널리 사용되는 지역적 특징인 SIFT와 부분공간분석에 의한 차원축소방법의 결합을 통하여 얼굴을 인식하는 방법을 제안한다. 기존의 SIFT기반 영상인식 방법에서는 추출된 키 포인트 각각에 대하여 계산된 특징기술자들을 개별적으로 비교하여 얻어지는 유사도를 바탕으로 인식을 수행하는데 반해, 본 논문에서 제안하는 접근법은 SIFT의 특징기술자를 명도 값으로 표현된 얼굴 영상을 여려 변형에 강건한 형태로 표현되도록 변환하는 표현방식으로 본다. SIFT기반의 특징기술자에 의해 표현된 얼굴 영상을 부분공간분석법에 의해 저차원의 특징벡터로 다시 표현되고, 이 특징벡터를 이용하여 얼굴인식을 수행한다. 잘 알려진 벤치마크 데이터인 AR 데이터베이스에 대한 실험을 통해 제안한 방법이 조명 변화와 가려짐에 강인한 인식 결과를 보여줄 뿐 아니라, 기존의 SIFT 기반의 얼굴 인식 방법에 비하여 우수한 처리 속도를 보임을 확인하였다.
-
많은 정보들을 인터넷을 통하여 접할 수 있게 됨에 따라 사용자가 만족하는 결과를 보여주는 것이 검색 엔진의 궁극적인 목표가 되었다. 하지만 방대한 양을 가진 다양한 정보에서 원하는 검색 결과를 검색하는 것은 과거와 현재까지 많은 연구를 통해 많은 시간과 노력이 필요하다는 것이 증명 되었다. 기존의 HITS 알고리즘을 개선하여 링크 제어를 이용한 페이지와 페이지간에 관련성을 높였다.
-
지능로봇은 복잡하고 동적으로 변화하는 환경 내에서 다양한 인식기를 통해 주변 환경 및 상황을 인식하고 이를 바탕으로 사용자에게 지속적으로 유용한 서비스를 제공하는 지능 시스템이다. 그러나 인식 기기의 성능 및 소프트웨어 알고리즘의 한계로 인해 로봇은 중요한 정보를 인식하지 못하거나 잘못된 정보를 인식할 수 있고, 이로 인해 사용자 의도를 파악하지 못하거나 의도하지 않은 행위를 수행할 수 있다. 본 논문에서는 스마트폰을 이용한 로봇-사용자 협력을 제시하여 이러한 문제를 해결하고자 한다. 스마트폰은 사용자가 항상 휴대하고 있기 때문에 언제든 로봇과 협력할 수 있으며 이 기기를 통해 로봇의 인식정보를 효과적으로 표현하고 직관적인 작업 지시 인터페이스를 제공하여 로봇이 사용자 의도에 적합한 올바른 행위를 수행할 수 있게 한다.
-
협력 필터링(Collaborative Filtering)은 상품추천, 영화추천 등에 사용되는 대표적인 방법으로서, 사용자들의 사용이력에 기반해서 유사도가 높은 항목들을 찾아낸다. 본 연구에서는 상용 IPTV 서비스에 협력 필터링을 적용했을 때 만들어지는 모델을 분석하여 어떤 요소들이 협력 필터링 모델의 생성에 영향을 끼치는지 분석했다. 이를 통해 IPTV 영역에 협력 필터링을 적용했을 때 영향을 끼치는 요소들과 다른 영역과는 다르게 고려해야 할 사항들을 알 수 있었다.
-
병원정보시스템의 전세계적인 보급과 데이터웨어하우스의 도입으로 인해서 병원내의 의료데이터가 기하 급수적인 증가추세를 보이고 있다. 환자에 대한 임상적인 특징을 다수 포함하고 있는 의료데이터는 유용한 임상지식의 보고로서 그 가치가 매우 유용하다. 따라서 데이터에 숨겨진 지식을 발견하여 구조화시킴으로써 새로운 지식을 창조하는 데이터마이닝은 임상부분에 적합한 기술이라 말할 수 있다. 본 연구에서는 급성염증을 가진 환자들의 의료데이터를 기반으로 특징을 추출하고, 추출된 특징을 바탕으로 병명을 판단하기 위한 학습을 수행한다. 학습 방법은 클러스터링을 이용한 나이브 베이지안으로 진행한다. 기존의 나이브 베이지안 학습은 대량의 데이터를 처리하는데 효과적이며 성능 또한 우수하지만, 속성별 독립을 가정하기 때문에 의료데이터를 분석에는 잘 사용되지 않는다. 따라서 높은 신뢰도를 구현하기 위해 나이브 베이지안 학습 전에 클러스터링을 선행하여, 기존 데이터에 클러스터링 클래스를 추가한다. 이를 통해 급성염증의 증상을 보이는 환자데이터를 바탕으로 자동적으로 방광염과 결석으로 인한 신장염을 효과적으로 진단해낸다.
-
최근 라이프 로그의 수집과 관리에 관련된 연구가 많이 진행 중에 있다. 또 핸드폰 카메라, 디지털 카메라, 캠코더 등의 발전으로 자신의 일상생활을 비디오로 저장하고, 인터넷을 통해 공유하는 사람도 증가하고 있다. 비디오 데이터는 많은 정보를 포함하고 있는 라이프 로그의 한 예로. 동영상의 촬영 및 수집이 활발해짐에 따라 동영상의 메타정보를 생성하고, 이를 이용해 동영상 검색과 관리에 이용하려는 연구들이 진행 중이다. 본 논문에서는 라이프 로그를 수집하고 수집된 동영상과 라이프 로그를 이용하여 의미정보를 추출하는 시스템을 제안한다. 의미정보란 사용자의 행동을 나타내는 정보로써 컴퓨터 사용, 식사, 집안일, 이동, 외출, 독서, 휴식, 일, 기타로 9가지의 의미정보를 추출한다. 제안하는 방법은 사용자로부터 GPS, 가속도센서, 캠코더를 이용해 실제 데이터를 수집하고, 전처리 과정을 통하여 특징을 추출한다. 이때 추출될 특징은 위치정보와 사용자의 상태정보 그리고 영상처리릍 통한 RGB와 HSL 색공간의 요소와 MPEG-7의 EHD(Edge Histogram Descriptor). CLD(Color Layout Descriptor)이다. 추출된 특징으로부터 사람 행동과 같은 불안정한 상황에서 강점을 보이는 확률모델 네트워크인 베이지안 네트워크를 이용하여 의미정보를 추출한다. 제안하는 방법의 유용성을 보이기 위해 실제 데이터를 수집하고 추론하고 10-Fold Cross-validation을 이용하여 데이터를 검증한다.
-
사용자와 환경의 변화에 적응하기 위해서 베이지안 네트워크의 다양한 학습 방법들이 연구되고 있다. 기존의 많은 학습방법에서는 학습 데이터로부터 통계적 방법을 통해서 베이지안 네트워크 모델을 학습하는데, 이러한 접근 방법은 학습 데이터를 수집하기 어려운 문제에 적용하기 힘들며, 사용자의 의도를 데이터의 패턴들로만 학습하므로 직접적으로 사용자의 의도를 반영할 수 없다. 본 논문에서는 대화에 기반하여 사용자의 의도를 직접적으로 수집하고, 이로부터 베이지안 네트워크의 파라메터를 학습하는 방법을 연구한다. 제안하는 방법에서는 사용자와의 대화를 통해서 현재의 모델의 잘못된 점 혹은 개선점을 직접적으로 입력 받고, 이를 바탕으로 베이지안 네트워크 모델을 수정하여 데이터의 수집 없이 빠른 시간에 사용자가 원하는 모델을 학습 할 수 있다. 기존의 통계적 기법을 이용한 대표적인 베이지안 네트워크 파라메터 학습 방법인 최대우도 추정(Maximum Likelihood Estimation; MLE) 방법과 제안하는 방법을 비교하여 제안하는 방법의 유용성을 확인한다.
-
Menu-based Clustering for Restaurant Recommendation Websites using Sequential Information Bottleneck최근에는 사회구조가 복잡해 짐에 따라 각 분야의 전문성이 두드러지고 있다. 이러한 흐름은 음식점에도 영향을 주어 기존의 형식에서 벗어난 자신들만의 독특하고 차별성 있는 요리 메뉴의 개발을 가속화시켰다. 그로 인해 한식, 중식, 양식으로 구분하는 전통적인 음식점 분류 방식이 한계를 보였고, 기존의 분류를 포함하면서도 새로이 등장하는 음식점들을 다룰 수 있는 방식이 필요하다. 본 논문에서는 최근 폭발적으로 늘어나는 음식점 추천 웹 사이트의 데이터를 토대로 자동적으로 음식점 분류를 수행하는 방법을 제안한다. 본 연구에서는 각 음식점이 갖고 있는 특징을 메뉴 정보를 통해 파악하려 하였다. 음식점 사이트에서 수집한 2 천개의 음식점, 6 만개의 메뉴 정보를 미리 정의된 필터로 정제한 후 Sequential Information Bottleneck Clustering 알고리즘을 적용하여 구분해 보았다. 실험결과 제안한 방법이 다른 Clustering 방법에 비해 높은 성능을 보였으며 음식점주가 수동적으로 음식점 분류를 입력하는 수고를 줄일 수 있는 가능성을 보였다.
-
주차장에서는 다양한 형태의 사건 사고가 발생하는데, 기존 DVR(CCTV)는 단순 영상녹화 기능만 지원하므로, 이를 효과적으로 분석하는데는 한계가 있다. 따라서, DVR의 영상카메라와 마이크를 통해서 입력되는 영상과 사운드 신호를 대상으로, 해당 영상이 발생하는 음향 신호의 종류를 파악하여, 특정 음향이 발생한 영상구간을 저장하여 이를 검색할 수 있다면, 주차장 관리자가 효과적으로 사건 사고를 대처할 수 있게 된다. 본 연구에서는 주차장에서 발생하는 차량관련 음향(충돌음, 과속음, 경적음, 유리파손, 비명)을 분류하기 위해 효과적인 특징벡터를 제안하고, 제안한 특징벡터를 이용하여 신경망 차량음향분류기를 설계하여 성능을 평가함으로써, 효과적으로 차량음향을 분류하기 위한 방법을 제안하였다. 또한, 신경망 차량음향분류기를 DVR시스템과 연동하여, 마이크로부터 입력되는 음향신호를 실시간 분석하고, 특정 소리가 발생한 영상구간을 기록함으로써, 음향 키워드에 의해서 해당 사고영상을 검색 및 디스플레이하는 시스템을 개발하였다.
-
가상 세계에서 가상 에이전트가 가져야 할 가장 기본적인 기능 중 하나가 이동을 위한 움직임이라 할 수 있다. 본 논문에서는 가상 세계의 Human의 움직임을 모델링하기 위해 객체들의 속성과 Action등을 나타내주는 지식베이스인 온톨로지를 사용하고, 이를 통해서 계층 관계를 구성하고 상속성을 적용한 모델링을 하고자 한다. 그리고 이를 바탕으로 가상 에이전트의 특성을 파악하고 특성에 따라 에이전트가 고유의 패턴을 가지고 동작을 생성하는 방법에 대해 제안한다. 또한 가상의 에이전트가 주변의 정성적 변화에 적응하여 동작을 변화하는 방법을 제시한다. 이렇게 제시된 방법들을 Human의 실제 움직임들 즉, walk, run, creep 등의 동작에 적용해 본다.
-
증강현실은 이미 이를 이용한 다양한 서비스들이 존재하고 있고, 최근 스마트폰이 주목받으며 덩달아 부각되고 있는 개념 중의 하나이다. 기존 증강현실을 이용한 시스템에서는 객체를 증강할 때 미리 만들어진 객체를 증강하므로 객체가 증강할 당시의 주변환경의 변화가 반영되지 않는다. 따라서 증강현실을 할 때 카메라로 들어오는 현재 배경이미지와 객체가 동떨어져 보이는 현상이 발생한다. 이는 사용자가 현실세계에 가상의 물체가 올라간 것이 어색해 보여 증강현실기반의 프로그램에 몰입하는데 방해가 된다. 본 논문에서는 증강현실기반의 시스템이 사용될 때 실시간으로 주변환경의 빛 정보를 분석하여 그 정보를 객체에 반영하는 방법을 제안한다. 다양한 주변환경 중에서도 시각적으로 많은 정보를 제공하는 빛 정보를 이용하여 보다 자연스럽게 객체의 색을 보정을 하며, 이는 실시간으로 객체에 적용된다. 이는 주변환경 정보가 다양하게 바뀌는 모바일 증강현실에서 유용하게 쓰일 것이다.
-
본 논문에서는 거리변환 기반의 정밀한 fiducial 마크 정렬 알고리즘을 제안한다. 거리변환은 물체의 중심에 가중치를 가지는 특성이 있는데 이는 AOI 공정에서 에칭, 이동과 같은 다양한 요소들로부터 획득되는 타겟영상에 대하여 강인하게 물체의 중심으로 매칭할 수 있도록 한다. 제안한 방법은 우선 입력 타겟영상에 대하여 이진화를 진행하고, 다음 모델과 타겟영상에 대하여 거리변환을 이용하여 거리특징을 추출하고, 추출된 모델과 타겟영상에 대한 거리특징을 NCC(Normalized Cross Correlation)를 이용하여 매칭한 후, 매칭 스코어에 대하여 Sub-pixel 분석을 진행하여 sub-pixel 레벨의 정확도를 가지도록 한다. 실험결과로부터 제안한 거리특징을 이용한 매칭 알고리즘이 기존의 픽셀 밝기 값을 이용한 매칭보다 강인하고 정확하게 매칭됨을 확인할 수 있었다.
-
In this paper, we propose a simple but effective algorithm to increase the speed of Emphysema region classification. Emphysema region classification method based on CT image consumes a lot of time because of the large number of subregions due to the large size of CT image. Some of the sub-regions contain no Emphysema and the classification of these regions is worthless. To speed up the classification process, we create an algorithm to select Emphysema region candidates and only use these candidates in the Emphysema region classification instead of all of the sub-regions. First, the lung region is detected. Then we threshold the lung region and only select the dark pixels because Emphysema only appeared in the dark area of the CT image. Then the thresholded pixels are clustered into a region that called the Emphysema pre-detected region or Emphysema region candidate. This region is then divided into sub-region for the Emphysema region classification. The experimental result shows that Emphysema region classification using predetected Emphysema region decreases the size of lung region which will result in about 84.51% of time reduction in Emphysema region classification.
-
고차원 공간에서 효과적인 이상치 탐지 방법으로 제안되었던 각도 기반 이상치 탐지(Angle Based Outlier Detection)는 객체와 객체를 비교하는 척도로 각도 개념을 사용하여 고차원 공간에서도 일반적인 거리기반 이상치 측정 방법보다 좋은 이상치 탐지 성능을 가진다. 그러나 어떤 이상치가 다른 이상치에 의해 둘러싸인 경우 정상객체와 구분하기 어렵다는 문제가 있다. 이 논문에서는 기존의 이상치 탐지 방법을 개선한 방법을 제안하고 실험을 통하여 기존의 방법과 제안한 새로운 방법을 비교하여 향상된 성능을 입증한다.
-
본 논문은 X-선 혈관조영영상에서 기울기 정보 및 최대 빈도수를 이용한 카테터 자동 분할 방법을 제안한다. 제안방법은 세 단계로 이루어진다. 첫째, 분할하고자 하는 카테터 관심영역을 설정하고, 영상의 대조대비를 높이기 위한 밝기값 스트레칭을 수행한다. 둘째, 카테터 후보 경계점을 추출하기 위하여 카테터 방향을 고려한 경계 강조 마스크를 영상에 적용한다. 셋째, 카테터 후보 경계점에서 기울기가 크고 최대 빈도수 직경을 갖는 카테터 경계점을 추출하고 이들을 선형 보간하여 최종 카테터 경계를 분할한다. 제안 방법의 평가를 위하여 육안 평가 및 전문가가 수동 분할한 결과와 본 제안방법을 적용하여 얻은 중복 영역 비율과 평균 거리 차이를 측정한 정확성 평가를 수행하였고, 수행시간을 측정하였다. 실험결과 중복 영역 비율은 93.9%
${\pm}$ 2.7%, 평균 거리 차이는 0.116-픽셀, 수행시간은 평균 0.011초로 측정되었다. -
본 논문은 본 연구팀이 행동패턴 분석을 위하여 개발한 BPP(Behavior Pattern Prediction)알고리즘의 가중치(weight) 속성을 객관적으로 수식화 하는 방법과 가중치와 행동 프로파일을 이용하여 정상/비정상 행동여부를 판단하는 ABA(Abnormal Behavior Analysis) 알고리즘을 제안한다. 가중치는 거주자의 방과 행동 사이의 연관성을 나타내며 가중치가 제한된 범위 내에서 증가 할수록 행동에 대한 관심이 크다. 구축한 사용자 프로파일의 주요 구성 요소로는 행동이 지속된 시간 과 행동 발생 횟수이다. ABA 알고리즘은 가중치와 행동 발생 횟수, 행동 지속시간과의 상관분석 결과를 참조 하였으며, 이산 가중치 데이터를 분석하여 비정상적인 행동을 탐지한다.
-
본 논문에서는 조각 병리 영상을 강체 정합을 통해 하나의 영상으로 자동 스티칭하는 방법을 제안한다. 제안 방법은 영상의 위치 초기화, 위치 보정, 강체 정합의 세 단계로 이루어진다. 첫째, 영상의 위치 초기화 단계에서는 순서 없이 흩어진 부분 영상을 탬플릿 매칭 기법을 사용한 영상 내 문자 인식을 통해 위치를 초기화한다. 둘째, 강체 정합의 정확성을 높이기 위해 코너점을 이용해 부분 영상의 위치를 보정한다. 셋째, 조각 영상 간 거리를 최소화하는 강체 정합을 수행한다. 실험 결과, 부분 영상 간 간격이 최소화되어 하나의 영상으로 스티칭되는 것을 확인하였고, 최적화 반복 횟수와 변환 벡터에 따른 정확성, 견고성 평가를 통해 거리 차의 제곱 합이 최소화되어 수렴됨을 알 수 있었다. 본 논문의 제안 방법은 조각 영상을 하나의 영상으로 스티칭함으로써 병리 조직의 전체적인 구조 파악과 이를 이용한 전립선암 확진에 사용될 수 있다.
-
본 논문의 이전 연구[1]에서 모바일 사용자들의 지난 상황데이터(context data)를 기반으로 다음 상황 예측을 위한 확률론적 방법을 제안하였다. 이 방법은 가중치를 나타내는 멀티그래프에 속하는 새로운 그래프 구조를 통한 확률론적 이론에 근거하여 일반적인 상황을 예측한다. 본 논문에서는 이전 연구보다 더 정확한 상황 예측을 위해 목표 상황과 관련된 상황데이터만을 선별하는 특징 선택 방법과 상황데이터가 적을 경우 균등분포를 가정하여 상황의 예측가능성을 높일 수 있는 방법을 제시하였다. 이 외에도 사용자의 다양한 생활 패턴에 대한 예측방법과 이동통신사 간의 고객정보를 보안성 있게 공유하기 위한 방법을 제시한다.
-
환자의 흉부 CT 영상을 이용하여 폐 영역의 질환을 진단하는 컴퓨터 조력 진단(CAD) 시스템은 질감 특징을 이용한다. 질환의 질감 특징 추출은 매우 중요하다. 질감 특징 추출은 폐 질환을 분석하기 위한 좋은 방법 중의 하나이기 때문이다. 본 논문에서는 폐기종 질환을 판별하기 위해 명암도와 CS-LBP를 결합한 질감 특징 추출 방법을 제안한다. 입력된 흉부 CT 영상은 몇 단계의 전처리 과정을 거치고 제안한 방법을 통해 질감 특징 추출을 하게 된다. 그리고 분류기에 의해 폐기종을 분류해 질환을 판별하게 된다. 실험 결과에서는 제안한 방법이 현존하는 방법 중 가장 좋은 성능을 보이는 GLLBP보다 더 좋은 성능을 보여준다.
-
본 논문에서는 인간의 신체 중 가장 편리하고 자주 사용되는 손을 인식하여 기계와 사람의 상호작용이 가능하게 하여 보다 편리한 기계의 사용이 이루어질 수 있도록 손인식을 통한 마우스제어 방법을제시하였다. CCD웹캠으로 받은 영상에서 스킨컬러 값을 기반으로 손영역을 추출하여 손동작을 인식하는 알고리즘을 제안한다. 본 논문의 알고리즘의 장점은 손의 추출과 손가락 개수 파악이 저 사항의 환경에서도 빠르게 영상처리가 가능하다는 것이다. 이러한 장점을 이용하여 실생활에 적용, 기계와 더 편리한 커뮤니케이션의 방안을 제시한다.
-
본 연구에서는 효과적인 손 제스처 인식을 위하여 다중 특징을 이용한 견고한 손 추적 방법을 제시한다. 기존의 많은 손추적 장치들이 칼라 정보나 모션 정보와 같은 단일한 정보를 바탕으로 손을 검출하고, 이를 바탕으로 손의 추적하는 방법들을 제시하고 있다. 이러한 방법들의 경우에는 손 추적 중에 환경이나 상황이 변하게 되면, 손추적의 정확도가 현저하게 떨어지게 된다. 본 연구에서는 이러한 문제점들을 보완하기 위하여, Adaboost를 이용한 손 검출, 역투영을 기반으로 손 색상을 이용한 추적, KLT를 바탕으로 한 모션 추적을 이용한 검출을 동시에 수행하며, 각 센서의 추적 결과에 대한 칼만 필터 적용뿐 아니라, 각 센서 정보를 통합하여 견고한 결과를 얻기 위한 방법을 제시한다. 이를 바탕으로 손제스처 인식 시스템을 개발하였으며, 개발된 제스처 인식을 바탕으로 비디오 플레이를 제어하는 시스템을 구현하였다.
-
본 논문에서는 SIFT(Scale Invariant Feature Transform) 기술자를 이용하여 오프라인 필기체 문자 인식을 위한 특징 추출방법을 제안한다. 제안하는 방법은 문자의 획의 방향 정보를 제공하는 특징 벡터를 추출함으로써 오프라인 문자 인식에서 성능 향상을 기대할 수 있다. 테스트를 위해 MNIST 필기체 데이터베이스와 UJI Penchar2 필기체 데이터베이스를 이용하였고, BP(backpropagation)신경망과 LDA(Linear Discriminant Analysis), SVM(Support Vector Machine) 분류기에서 성능 테스트를 하였다. 본 논문의 실험결과에서는 일반적으로 사용되는 특징추출로부터 얻어진 특징에 제안된 특징추출을 정합하여 성능항샹을 보인다.
-
본 논문에서는 필기체 문자 인식을 위하여 기존의 기술을 검토, 분석 및 새로운 방안을 제안하여 온라인 문자 입력 방식과 오프라인 문자 입력 방식의 적절한 통합화 과정을 제안하고 이를 통하여 온/오프라인 모두에 적용 가능한 통합형 필기체 문자 인식 시스템을 제안하고자 한다. 이를 위해 온/오프라인 문자 입력 방식의 차이를 줄이도록 전처리 과정을 시행하고 데이터 저장 효율을 위해 베지어 곡선 근사화 작업을 진행한다. 또한 이러한 통합 데이터를 처리할 수 있는 인식 엔진을 제안하고자 한다.
-
휴먼 행동 인식은 크게 3D 모델 기반 방법과 템플릿 기반 방법으로 나눌 수 있다. 3D 모델 기반 방법은 휴먼의 포즈를 3D로 재구성한 뒤 특징을 추출하는 것으로 인식 정확도는 높으나 연산량이 많아 매우 비효율적이다. 반면 템플릿 기반의 방법은 간단하고 수행 시간이 빠르기 때문에 여러 논문들에서 채택되고 있다. 그러나 템플릿을 이용한다는 특성 때문에 시점, 행동 스타일의 변화 등에 따라 실루엣의 변화가 심해 인식 성능에 한계점을 가진다. 본 논문에서는 핵심-포즈들의 히스토그램으로 표현되는 핵심-포즈 분포와 광류의 변화를 이용하여 다중 시점에서의 휴먼 행동 인식 방법을 제안한다. 제안하는 방법은 IXMAS 데이터 셋을 이용한 실험에서 적은 수의 템플릿을 이용하면서도 평균 87.9%의 높은 인식률을 보였다.
-
환경오염으로 인해 아토피 등의 피부질환이 증가하고 있으며 이에 국내에서는 인터넷을 통한 아토피 진단 서비스는 많다. 하지만 단순한 설문조사 형식으로 진단에 대한 객관성을 유지하기 어려워 신뢰도가 낮다. 이에 본 논문은 컴퓨터 비전 인식 기술을 활용하여, 컴퓨터에서 처리가능한 아토피 환자의 환부 영상을 수집 및 진단하는 시스템을 개발한다. 아토피 진단 시스템은 환부 영상을 사용자로부터 입력받아 색상값에 대한 히스토그램을 만들어 정규화한다. 다음으로 정규화된 히스토그램의 확률적 분포를 이용해 역투영한 결과 영상을 만들어 내게 되며 이 역투영 영상을 바탕으로 피부색을 제외한 부분을 아토피 침범 영역이라 판단하게 된다. 최종적으로는 입력 영상으로부터 얻어진 침범 영역, 문진을 이용한 점수를 이용하여 SCORAD 지수 스코어링 하게 된다.
-
컴퓨터와 인간과의 상호작용에서 다양한 형태의 인터페이스에 대한 요구가 날로 커지고 있다. 그 가운데 실생활에서도 사물을 지칭하거나 의사소통의 수단으로 사용되는 손과 관련한 인터페이스에 대한 연구가 주목 받고 있다. 기존의 대부분의 연구들은 손을 입력 받으면 영상을 기반으로 손의 중심점을 찾아 그것의 위치를 인식하였는데 이는 물체에 의해 손이 가려진 것과 같이 잘못된 영상을 입력 받았을 때 원하는 결과를 얻지 못하는 상황을 야기할 수 있다. 본 논문은 이러한 점을 보완하기 위하여 손의 중심점을 찾을 때 방해 받는 물체에 덜 민감하게 반응하도록 칼만 필터를 적용하여 문제점을 개선할 수 있도록 하였다. 또한 결과의 정확도를 높일 수 있도록 손가락 끝점을 추출하여 칼만 필터의 매개변수에 반영시켜주었다. 그 결과 예기치 못한 상황이 발생했을 때에도 이것에 덜 민감하게 반응하면서 손의 위치를 비교적 정확하게 측정할 수 있었으며 시스템의 과정이 간단하여 실시간으로 응용하기에 적합한 것을 알 수 있었다.
-
영상을 입체적으로 보는 방법에는 안경을 이용한 편광 방식과 시분할 방식, 안경이 필요 없는 패럴랙스 베리어, 렌티큘러, 다시점 방식 그리고 완전 3차원 방법들이 있다. 그 중에서도 안경을 이용하여 가장 쉽게 제작이 가능하고, 비용이 저렴한 애너그리프(Anaglyph) 방법이 흔히 사용된다. 애너그리프 영상을 생성하는 방법에도 여러 가지가 존재하고 최근까지 눈에 피로를 적게 하면서 입체감을 최대한 표현할 수 있는 영상을 생성하기 위한 연구가 진행되고 있다. 본 논문에서는 이러한 조건을 만족시키기 위하여 새로운 애너그리프 영상 생성 방법을 제안한다. 본 논문에서 제안하는 방법은 깊이 맵과 양안시차를 계산하여 가장 입체감 있는 애너그리프 영상을 생성 하는 방법이다. 깊이 맵의 계산을 통해 얻은 변이 정보와 실험적으로 계산한 사람 눈의 양안시차를 좌측 영상에 적용한다. 좌측 영상과 우측 영상을 최적화된 색상혼합방법을 사용하여 합성하면 제안한 방식의 애너그리프 영상이 생성된다. 본 논문에서 제안하는 방법은 기존의 초점을 고려하지 않는 애너그리프 방식의 문제점을 깊이 맵을 이용하여 해결할 수 있고 또한 양안시차를 고려하고 최적화된 색상혼합을 사용하기 때문에 눈에 피로가 적어진다.
-
최근 많은 컴퓨팅 작업들이 모바일로 옮겨지기 시작하면서 존재하는 알고리즘을 하드웨어에 구현하여 속도를 높이는 것이 이슈가 되고 있다. 그 중 영상의 특징 점을 기반으로 두 개 이상의 영상을 매칭하는 기술을 중심으로 하는 기술이 다양한 분야에서 연구되고 있다. 본 논문에서는 다양한 분야에서 널리 활용되는 Scale Invariant Feature Transform(SIFT)라는 특징 점 추출 알고리즘의 성능을 분석하여 모바일 디바이스를 위한 비용대비 성능이 높은 최적의 매개변수를 찾는다.
-
다시점 영상 부호화에서는 시점 간의 공간적 중복성을 이용하여 데이터 중복성을 제거하는 것이 중요하다. 독립적으로 부호화하는 동시 부호화 방법(simulcast)보다 부호화 효율이 더욱 향상하였지만 계산 복잡도가 증가하는 문제가 있다. 본 논문에서는 다시점 영상 부호화기의 계산 복잡도를 감소시키기 위한 빠른 모드 결정 방법을 제안한다. GOP 내의 양 끝에 위치하고 있는 기준 화면의 MAD를 계산하여 영역을 분할하고 영역 맵을 생성한다. 시점 간의 예측을 사용하는 시점의 경우 인접 시점의 기준 화면도 이용하여 영역을 분할한다. 생성된 맵은 비기준 화면의 부호화 시 적용되어 후보 모드를 조기에 판단한다. 이와 같은 방법을 적용한 후의 실험 결과, 화질의 손실이 거의 없으면서 부호화 시간은 평균 58.6% 감소하였고, 비트율은 평균 1.9% 증가하였다.
-
OpenMP 프로그램의 수행 중에 발생하는 자료 경합과 같은 병행성 오류는 디버깅을 위하여 반드시 탐지되어야만 한다. 그러나 이를 탐지하는 것은 어려운 일이다. 접근사건의 발생 후 관계를 기반으로하는 경합 탐지 기법은 프로그램의 수행 중에 발생하는 스레드의 병행성 정보를 식별하기위한 레이블을 생성하고, 생성된 스레드의 레이블을 기반으로 공유변수에 접근하는 사건을 접근역사를 통해 감시함으로써 경합을 탐지한다. 이러한 경합 탐지의 방법에서 레이블 생성을 위한 NR 레이블링 기법은 병행성 정보생성 시에 지역자료 구조를 사용함으로써 병목현상이 발생하지 않으며, 접근역사에 저장하는 레이블의 크기가 상수 값을 갖는 공간적 효율성을 제공한다. 또한 부모스레드의 정보역사를 정렬된 리스트 형태로 가져 병행성 정보 비교 시에 이진탐색이 가능하므로 시간적 효율성을 가지는 우수한 기법이다. 그러나, NR 레이블링은 레이블의 생성시에 부모스레드의 정보역사를 유지하기 위해서 내포 병렬성의 깊이에 의존하는 시간적 비용이 요구된다. 본 논문에서는 부모스레드의 정보역사 유지를 위해 상수적인 시간 및 공간적 복잡도를 갖도록 NR 레이블링 기법을 개선한다. 합성 프로그램을 이용하여 실험한 결과에서 개선된 기법은 최대 병렬성의 증가에 따라 레이블의 생성과 유지시 기존의 기법보다 평균 4.5배 빠르고, 레이블링을 위해 평균 3배 감소된 기억공간을 요구하며, 내포 병렬성에 의존적이지 않음을 보인다.
-
모바일 환경에서 웹 브라우저 활용이 늘어나고 웹 페이지를 통한 다양한 서비스가 제공되면서 브라우저에서의 자바스크립트 성능이 중요한 요소가 되었다. 자바스크립트 엔진의 성능 개선을 위해 기존에 사용하던 인터프리터 대신에 머신 코드를 실행 시간에 생성하는 적시 컴파일러(JITC)가 도입되었다. 특히 모바일 환경에서 WebKit의 자바스크립트 엔진인 SquirrelFish Extreme(SFX)이 많이 사용되고 있다. 본 논문에서는 SFX의 성능 향상을 위하여 적시 컴파일러를 통해 생성된 머신 코드를 파일 시스템을 활용하여 파일에 저장하였다가 재사용하는 클라이언트 AOTC(ahead-of-time compilation) 방식을 제시하고 초기 실험 결과를 제시한다.
-
LLVM(Low-level Virtual machine)은 최적화된 컴파일 코드 생성을 위한 컴파일러 프레임워크를 목적으로 제작되었다. LLVM은 C언어로 작성된 코드를 효과적으로 머신에 비종속적인 중간코드로 표현하여 사용하므로 이를 잘 활용한다면 C언어를 위한 머신 비종속적인 '가상머신'으로 사용할 수 있다. 하지만 LLVM은 효과적인 컴파일러라는 원래의 설계목적 때문에 전반적으로 동적 수행에 대해 큰 고민 없이 디자인되었다. 이러한 디자인상의 한계는 가상 머신으로서의 성능에는 좋지 않은 영향을 끼치므로 이에 대한 보안이 필요하다. 우리는 LLVM의 명령어 셋에 추가명령어를 제안하여 LLVM 해석기의 성능향상을 얻어낼 것이다.
-
버퍼 오버플로우의 공격은 스택의 영역뿐만 아니라 데이터 세그먼트나 힙 영역에서도 다양한 형태가 가능하다. 이 논문은 힙 영역에 대한 동적 메모리 할당 함수의 취약점 공격을 방지하는 방안을 제시한다. 제안된 방법은 데이터 포인터의 값을 암호화 하여 저장하고, 참조할 때 복호화 한다. 힙 공격은 원하는 주소에 원하는 값을 기록할 수 있게 하기 때문에 데이터 변수 또는 포인터 공격에 활용될 수 있다. 데이터 포인터 암호화는 아직 알려지지 않은 데이터 포인터와 변수에 대한 공격까지 방어할 수 있을 것으로 예상된다.
-
자율무인잠수정은 탐사 목적에 따라 다양한 임무를 수행해야 하며, 임무에 따라 자율무인잠수정 행동의 유형과 순서는 달라질 수 있다. 그러나 대부분의 자율무인잠수정은 한정된 임무에 대하여 프로그램 내부에 고정된 행동 유형으로 동작하며, 다른 유형의 임무를 수행해야 할 경우에는 프로그램을 수정해야 하는 문제점이 있다. 따라서 본 연구에서는 자율무인잠수정이 수행할 수 있는 다양한 임무를 명시할 수 있는 임무 언어를 개발하였다. 이 임무 언어는 명령어의 실행 순서를 제어할 수 있는 제어문과 자율무인잠수정의 행동을 지정하거나 자율무인잠수정의 상태를 입출력 할 수 있는 명령어, 그리고 변수 정의를 제공하기 때문에, 사용자가 자율무인잠수정의 임무를 자유롭게 표현하는 것이 가능하다. 임무 언어로 작성된 임무 파일은 전용 어셈블러에 의해 이진 형식의 실행이미지로 변환된 후에, 자율무인잠수정 내장 소프트웨어 내부의 가상기계 기억장치에 적재되어 실행된다. 실행이미지를 가상기계에서 해석하고 실행하는데 필요한 시스템의 자원을 최소화하기 위하여 임무 언어는 자율무인잠수정의 임무를 표현하기 위한 필수적인 부분만을 고려하여 설계되었으며, 문법은 ARM v5 어셈블리와 유사한 형태이다. 개발된 임무 언어는 한국해양연구원에서 개발한 이심이100 자율무인잠수정에 적용되었으며, 이후 개발할 6,000m급의 이심이6000 자율무인잠수정에도 사용될 예정이다.
-
가상 머신은 중간코드로 컴파일 되어 한 프로그램을 여러 플랫폼에서 수행 가능하게 한다. 이러한 가상 머신에는 이미 널리 알려진 썬 마이크로시스템즈의 자바 가상 머신과 구글의 안드로이드 플랫폼의 달빅 가상 머신 그리고 애플이 지원하는 LLVM 등이 있으며, 파이어폭스의 TraceMonkey, 구글 크롬의 v8, 사파리의 SquirrelFish Extreme 같은 자바스크립트 엔진도 일종의 가상 머신으로 볼 수 있다. 가상 머신은 필연적으로 성능 저하를 동반하게 되는데, 이는 가상 머신의 주요 이슈 중 하나이다. 본 논문에서는 간단한 벤치마크를 통해서 이들 가상 머신간의 성능을 비교하고, 각 가상 머신의 특징을 알아본다. LLVM은 여러 단계에 걸친 컴파일 전략으로 JIT 컴파일을 사용하였을 때 높은 성능을 보이나 JIT 컴파일을 사용하지 않았을 경우는 매우 낮은 성능을 보인다. 달빅 가상 머신은 인터프리터 모드에서 자바 가상 머신 보다 조금 나았으나, 아직 개발된 지 얼마 되지 않아 JIT 컴파일러가 없다는 것이 약점이다. 자바스크립트 엔진들은 동적 언어인 자바스크립트를 지원하는 특성상 최적화를 적용하지 못해 비교적 낮은 성능을 보였다.
-
최근에는 스마트 폰의 저변이 확대되면서, 보안 취약성에 대한 많은 문제점이 새롭게 등장하고 있다. 스마트 폰 프로그램은 PC 환경에서 실행되는 프로그램과는 달리, 배포가 이루어진 이후에 소프트웨어 업데이트 등의 방법으로 보안 취약성을 제거하는 것이 매우 어려운 특징이 있다. 기존의 테스트 방법론은 스마트 폰의 특성에 대한 고려가 없기 때문에 스마트 폰을 위한 테스트 방법론과 함께 이를 위한 동적 테스트 도구에 대한 연구가 필요하다. 본 논문에서는 이벤트 구동 방식으로 동작하는 스마트 폰 프로그램의 특징을 고려한 동적 테스트 도구를 설계한다. 테스트 도구는 컴파일러 이론을 적용하여 체계적으로 설계 한다. 제안한 도구는 테스트 케이스 생성기와 테스팅 시스템으로 구성되며, 이벤트 구동 방식으로 동작하는 소프트웨어의 취약성 검출 자동화 도구로 활용할 수 있다.