• Title/Summary/Keyword: 구조화된 입력

Search Result 77, Processing Time 0.023 seconds

Automatic Drawing and Structural Editing of Road Lane Markings for High-Definition Road Maps (정밀도로지도 제작을 위한 도로 노면선 표시의 자동 도화 및 구조화)

  • Choi, In Ha;Kim, Eui Myoung
    • Journal of the Korean Society of Surveying, Geodesy, Photogrammetry and Cartography
    • /
    • v.39 no.6
    • /
    • pp.363-369
    • /
    • 2021
  • High-definition road maps are used as the basic infrastructure for autonomous vehicles, so the latest road information must be quickly reflected. However, the current drawing and structural editing process of high-definition road maps are manually performed. In addition, it takes the longest time to generate road lanes, which are the main construction targets. In this study, the point cloud of the road lane markings, in which color types(white, blue, and yellow) were predicted through the PointNet model pre-trained in previous studies, were used as input data. Based on the point cloud, this study proposed a methodology for automatically drawing and structural editing of the layer of road lane markings. To verify the usability of the 3D vector data constructed through the proposed methodology, the accuracy was analyzed according to the quality inspection criteria of high-definition road maps. In the positional accuracy test of the vector data, the RMSE (Root Mean Square Error) for horizontal and vertical errors were within 0.1m to verify suitability. In the structural editing accuracy test of the vector data, the structural editing accuracy of the road lane markings type and kind were 88.235%, respectively, and the usability was verified. Therefore, it was found that the methodology proposed in this study can efficiently construct vector data of road lanes for high-definition road maps.

Fast Car Model Recognition Algorithm using Frontal Vehicle Image (차량 전면 영상을 이용한 고속 차량 모델 인식 알고리즘)

  • Jung, do-wook;Kim, hyoyeon;Choi, hyung-il
    • Proceedings of the Korea Contents Association Conference
    • /
    • 2015.05a
    • /
    • pp.305-306
    • /
    • 2015
  • 과속차량 단속카메라에 촬영된 차량 전면 영상은 차량번호를 인식하여 과속차량에 과금하는 용도로 사용되나 범죄 용의자 차량을 추적하기 위한 용도로도 사용되어진다. 본 연구에서는 국소특징점의 정합을 이용하여 차량 모델을 찾는 방법을 넘어서 실시간으로 차량 모델을 찾기 위한 알고리즘을 제안한다. 입력된 영상에 대하여 차량의 모델을 특징지을 수 있는 헤드라이트를 포함한 차량의 그릴 영역을 관심영역으로 제한하고 관심영역에서 추출된 특징점들을 모델 특징벡터 데이터베이스의 자료와 비교하는 방법 을 사용하였다. 입력 영상의 크기 변화와 조명 변화에 강인한 SURF 국소특징점을 이용한 매칭 방법은 차량 모델을 찾는데 적합하나 선형적으로 탐색하는데 시간이 오래걸린다. 따라서 블러를 사용하여 차량 이미지에서 추출되는 특징점들의 수를 매칭이 가능한 수준으로 낮추는 방법으로 모델 자료로부터 탐색에 필요한 시간을 단축시켰다. 또한 모델 자료를 구조화하여 탐색시간을 줄이는 방법들을 비교하여 LSH 를 사용한 결과 차량 모델을 탐색하는데 필요한 시간이 단축됨을 보였다.

  • PDF

A Study of the selection of similar English sentence based on example using the Korean parser (한국어 구문 분석기를 이용한 예문기반 유사 영문 선택에 관한 연구)

  • 권영훈;윤영호;한광록
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2000.04b
    • /
    • pp.360-362
    • /
    • 2000
  • 본 연구는 예문을 이용하여 한국어 문장과 가장 유사한 영어 문장을 선택하기 위한 기존 연구보다 예문 지시의 정확도를 향상하고 기존의 문제점이었던 문장성분 선택의 불일치성을 제거하기 위해 한국어 구문 분석 시스템을 추가한 형태를 갖추고 있다. 한국어 구문 분석 시스템을 사용하는 이유는 한문장을 하나의 프레임으로 구조화시킬 때 서술부가 문장의 의미를 나타내는 가장 중요한 역할을 하므로 서술부를 헤더로 선택하고 단순히 조사 정보를 사용하여 각 문장성분을 추출하는 방법의 문제점을 제거하고 서술부 연결 관계를 기초로 프레임의 슬롯을 확보할 수 있기 때문이다. 유사 영문이 필요한 한국어 문장이 입력되면 입력 문장에 대한 형태소 분석과 한국어 구문 분석을 통하여 한국어 문장에서 서술부와 연결되는 주요 성분을 분리하여 프레임 구조를 생성하고 생성된 프레임과 이미 구축된 예문 데이터베이스 사이의 가중치와 유사도를 계산함으로써 한국어 문장과 유사한 영어 문장의 예를 제시하여 영작에 이용할 수 있는 시스템을 구현한다.

  • PDF

Query Reconstruction for Searching QA Documents by Utilizing Structural Components (질의응답문서 검색에서 문서구조를 이용한 질의재생성에 관한 연구)

  • Choi, Sang-Hee;Seo, Eun-Gyoung
    • Journal of the Korean Society for information Management
    • /
    • v.23 no.2
    • /
    • pp.229-243
    • /
    • 2006
  • This study aims to suggest an effective way to enhance question-answer(QA) document retrieval performance by reconstructing queries based on the structural features in the QA documents. QA documents are a structured document which consists of three components : question from a questioner, short description on the question, answers chosen by the questioner. The study proposes the methods to reconstruct a new query using by two major structural parts, question and answer, and examines which component of a QA document could contribute to improve query performance. The major finding in this study is that to use answer document set is the most effective for reconstructing a new query. That is, queries reconstructed based on terms appeared on the answer document set provide the most relevant search results with reducing redundancy of retrieved documents.

The Development of an Automatic Tool for Formal Concept Analysis and its Applications on Medical Domain (형식개념분석을 위한 자동화 도구의 개발과 의료분야에서의 적용사례)

  • Kim, Hong-Gee;Kang, Yu-Kyung;Hwang, Suk-Hyung;Kim, Dong-Soon
    • The KIPS Transactions:PartD
    • /
    • v.13D no.7 s.110
    • /
    • pp.997-1008
    • /
    • 2006
  • For extracting and processing information explicitly from given data, Formal Concept Analysis(FCA) is provided a method which is widely used for data analysis and clustering. The data can be structured into concepts, which are formal abstractions human thought allowing meaningful comprehensible interpretation. However, most FCA tools mainly focus on analyzing one-valued contexts that represent objects, attributes and binary relations between them. There we few FCA tools available that provide scaling and analyzing many-valued contexts representing objects, attributes and relations with attributes' values. In this paper, we propose not only a scaling algorithm for interpreting and simplifying the multivalued input data, but also an algorithm to generate concepts and build concept hierarchy from given raw data as well. Based on these algorithms, we develop an automate tool, FCA Wizard, for concept analysis and concept hierarchy. We also present FCA Wizard based applications in medical domain.

Generating Test Cases and Scripts from Requirements in Controlled Language (구조화된 자연어 요구사항으로부터 테스트 케이스 및 스크립트 생성)

  • Han, Hye Jin;Chung, Kihyun;Choi, Kyunghee
    • KIPS Transactions on Software and Data Engineering
    • /
    • v.8 no.8
    • /
    • pp.331-342
    • /
    • 2019
  • This paper proposes a method to generate test cases and test scripts from software requirements written in a controlled natural language, which helps develop reliable embedded software. In the proposed method, natural language requirements are written in a controlled language, the requirements are parsed and then inputs, outputs and operator data are extracted from the requirements. Test cases are generated from the extracted data following test case generation strategies such as decision coverage, condition coverage or modified condition/decision coverage. And then the test scripts, physical inputs of the test cases are generated with help of the test command dictionary. With the proposed method, it becomes possible to directly check whether software properly satisfies the requirements. Effectiveness of the proposed method is verified empirically with an requirement set.

Populating Geo-ontology with Web resources (웹 자원을 이용한 지리정보 온톨로지 확장)

  • Song, Won-Yong;Baik, Doo-Kwon;Jeong, Dong-Won
    • Journal of KIISE:Computing Practices and Letters
    • /
    • v.15 no.10
    • /
    • pp.740-751
    • /
    • 2009
  • Much research on semantic geographic information systems that incorporating the Semantic Web and geographic information has been actively studied. However, the existing geographic information systems have a system dependency problem that users can input and retrieve non-spatial information only in a specific system. It also causes difficulty in providing rich services. Therefore, this paper proposes an implementation model for population of Geo-ontology from non-structured Web resources. The proposed model can populate instances for Web ontology independently of systems, and thus it enables a richer Web service development. Finally, this paper shows the prototype that populates instances including a Geo-ontology building example for a University selected as an application domain.

Design and Implementation of a Geo-Ontology Population Model using Non-Structured Web Resources (비 구조화된 웹 자원을 이용한 지리정보 온톨로지 확장 모델 설계 및 구현)

  • Song, Won-Yong;Ji, Jong-Jin;Baik, Doo-Kwon;Jeong, Dong-Won
    • 한국IT서비스학회:학술대회논문집
    • /
    • 2009.05a
    • /
    • pp.397-400
    • /
    • 2009
  • 현재 웹은 단순히 정보를 수집하여 제공하던 웹 1.0을 지나 정보의 사용자가 곧 생산자가 되어 개방된 웹 환경을 기반으로 사용자 스스로 콘텐츠를 제작, 재창조, 공유하는 인터넷 서비스 모델인 웹 2.0으로 발전하였다. 이러한 웹의 발전 과정에서 시맨틱 웹이 등장하게 되었고 시맨틱 웹이 지리 정보와 접목되어 시맨틱 지리 정보 시스템이 등장하게 되었다. 기존 지리 정보 시스템에서는 사용자들이 국한된 정보만을 제공받아 왔지만 웹이 발전하고 수많은 콘텐츠가 생성되면서 웹의 데이터를 지리 정보 시스템과 연결시켜서 사용자에게 풍부한 정보를 제공 할 수 있는 시스템이 연구, 개발되고 있다. 하지만 기존 연구들은 사용자가 시스템에 접속하여 비공간 정보를 입력해야 하는 특정 시스템에 종속적이라는 단점을 가지고 있어 시맨틱 웹에서 지향하는 풍부한 서비스 제공에 어려움을 격고 있다. 따라서 이 논문에서는 웹 자원을 정의된 지리정보 온톨로지(Geo-Ontology)의 인스턴스로 추가하여 지리 정보 시스템의 비공간 정보를 확장함으로써 특정 시스템에 종속적이지 않고 사용자에게 보다 풍부한 서비스를 제공하기 위한 모델을 제안하고 프로토타입을 구현한다.

  • PDF

An Approach to Automatically Generating Infobox for Wikipedia in Cross-languages through Translation and Webgraph (번역과 웹그래프를 활용한 언어 간 위키피디아 인포박스 자동생성 기법)

  • Kim, Eun-Kyung;Choi, DongHyun;Go, Eun-Bi;Choi, Key-Sun
    • Annual Conference on Human and Language Technology
    • /
    • 2011.10a
    • /
    • pp.9-15
    • /
    • 2011
  • 여러 언어로 작성되는 위키피디아의 경우 언어 간에 등록되어 있는 정보의 양과 내용이 달라 언어 간 정보를 상호 추출하고 서로 통합하는 연구에 대한 관심이 증가하고 있다. 특히, 위키피디아의 요약본으로써 의미가 있는 인포박스는 위키피디아 아티클에 존재하는 구조화된 정보 중 가장 근간이 되는 정보로, 본 논문에서는 위키피디아에 존재하는 인포박스를 1)소스 언어 자원으로부터 획득하여 타겟 언어로 번역하고, 2)번역된 결과물과 웹그래프를 이용하여 타겟 언어 데이터에서 획득하는 정보와 결합하는 과정을 통해 자동으로 인포박스를 생성하는 기법에 대하여 설명한다. 웹그래프는 위키피디아에 존재하는 링크 구조를 통해 서로 다른 두 용어간의 관련도를 측정하여 인포박스에 추가될 내용을 파악하는데 사용한다. 본 논문의 기법은 언어 간 인포박스를 생성하는 측면에서, 영어 인포박스 데이터를 입력으로 하여 한국어 인포박스 데이터를 생성하는 방식으로 진행하였다. 평가를 위하여 기존 한국어에 실제 존재하는 인포박스 데이터와 비교 실험하는 방식을 사용하여 평균적으로 40%의 정확률과 83%의 재현율을 나타내었다. 하지만, 기존 한국어에 존재하는 인포박스 데이터의 내용이 인포박스에 포함될 완전한 데이터를 모두 포함했다고 볼 수 없으므로 본 논문에서 제안하는 수행한 실험의 정확률이 상대적으로 낮게 나온 것으로 분석되었다. 실제 사람이 수작업으로 새롭게 생성된 인포박스 데이터의 적합성을 판별한 경우 평균 76%의 정확률과 91%의 재현율을 나타내었다.

  • PDF

An Improved Input Image Selection Algorithm for Super Resolution Still Image Reconstruction from Video Sequence (비디오 시퀀스로부터 고해상도 정지영상 복원을 위한 입력영상 선택 알고리즘)

  • Lee, Si-Kyoung;Cho, Hyo-Moon;Cho, Sang-Bok
    • Journal of the Institute of Convergence Signal Processing
    • /
    • v.9 no.1
    • /
    • pp.18-23
    • /
    • 2008
  • In this paper, we propose the input image selection-method to improve the reconstructed high-resolution (HR) image quality. To obtain ideal super-resolution (SR) reconstruction image, all input images are well-registered. However, the registration is not ideal in practice. Due to this reason, the selection of input images with low registration error (RE) is more important than the number of input images in order to obtain good quality of a HR image. The suitability of a candidate input image can be determined by using statistical and restricted registration properties. Therefore, we propose the proper candidate input Low Resolution(LR) image selection-method as a pre-processing for the SR reconstruction in automatic manner. In video sequences, all input images in specified region are allowed to use SR reconstruction as low-resolution input image and/or the reference image. The candidacy of an input LR image is decided by the threshold value and this threshold is calculated by using the maximum motion compensation error (MMCE) of the reference image. If the motion compensation error (MCE) of LR input image is in the range of 0 < MCE < MMCE then this LR input image is selected for SR reconstruction, else then LR input image are neglected. The optimal reference LR (ORLR) image is decided by comparing the number of the selected LR input (SLRI) images with each reference LR input (RLRI) image. Finally, we generate a HR image by using optimal reference LR image and selected LR images and by using the Hardie's interpolation method. This proposed algorithm is expected to improve the quality of SR without any user intervention.

  • PDF