• 제목/요약/키워드: 레코드

검색결과 507건 처리시간 0.033초

저자 식별에 기반한 저자 그래프 생성 (Author Graph Generation based on Author Disambiguation)

  • 강인수
    • 정보관리연구
    • /
    • 제42권1호
    • /
    • pp.47-62
    • /
    • 2011
  • 이상적 저자-망은 그 노드가 저자를 표현하도록 정의된다. 그러나 실제 자동 생성되는 대부분 저자망의 노드는 저자명을 저자 식별자로 사상시키는 어려움으로 인해 단순히 저자명으로 표현된다. 실 세계 저자를 표현하기 위해 이처럼 저자명을 사용하여 저자망을 구성하는 것은 서로 다른 동명 저자들이 하나의 저자명 노드로 병합됨으로 인해 저자망의 특성을 왜곡하는 문제가 발생한다. 이 연구는 공저 관계에 의존하여 저자명이 갖는 중의성을 해소하고 저자 노드로 구성된 저자망을 자동 생성하는 알고리즘을 제시한다. 공저자 자질의 특성상 이 알고리즘은 과소군집오류를 희생하면서 과다군집오류를 최소화하는 군집 결과를 만든다. 실험에서는 한글 동명 저자명이 출현한 실제 서지레코드 집합을 대상으로 알고리즘의 적용 결과를 제시한다.

HIP을 적용한 동적 DNS 설계 (Dynamic DNS design for HIP)

  • 박정수;조인준
    • 공학논문집
    • /
    • 제6권2호
    • /
    • pp.125-130
    • /
    • 2004
  • 현재 인터넷에서 사용되고 있는 IP주소는 호스트 위치정보와 신원정보를 동시에 나타냄으로써 이동성 및 멀티호밍을 원활하게 지원하지 못하는 근본적인 문제를 지니고 있다. 이러한 문제를 해결하고자 호스트위치정보와 신원정보 분리를 주장하는 HIP(Host Identity Protocol)이 제안되었다. 그러나 IETF hip WG에서 HIP 적용을 위해 제시한 DNS(Domain Name System)가 기존의 DNS 기능의 일부 확장 아이디어만을 제시하여 그 구체성이 결여되어 있다. 본 논문에서는 HIP이 원활하게 지원될 수 있도록 동적 DNS를 구체적으로 설계하였다. 즉 기존의 DNS에 호스트 신원(Host Identity Namespace) 및 랑데뷰 서버 네임스페이스(Rendezvous Server Namespace)를 추가하고 새로운 자원 레코드(PR, Resource Records)들을 정의하였다. 이를 통해서 아이디어 차원의 HIP용 동적 DNS를 보다 구체화 하였다.

  • PDF

전자기록 환경에서의 '업무친화적' 기록관리 방향성 분석 (A Critical Approach to 'Business-Friendly' Record Management In Electronic Records Environment)

  • 김명훈
    • 정보관리연구
    • /
    • 제38권4호
    • /
    • pp.145-166
    • /
    • 2007
  • 본고에서는 전자기록 환경에서의 기록관리 패러다임 변화에 대한 한 단면으로서, '업무친화적' 기록 관리의 향방에 대해 논의하고자 한다. 우선 전자기록 환경의 특성을 기반으로 업무와 기록, 기록관리의 상관관계를 심층적으로 분석한 다음, 전자기록 환경에서 기록관리가 지니게 되는 의미 및 역할의 방향성을 제시코자 한다. 이를 통해 본고에서는 종래의 라이프사이클 체제하에서 간과되어 왔던 현용기록관리의 의의 및 역할을 전자기록 환경에서 재정립함과 더불어, 나아가 기록관리와 정보관리의 연계를 위한 이론적 기반을 제공할 것이다.

SVM을 적용한 선박 스트림 데이터 처리 기법 (Ship Stream Data Processing Techniques To Which The SVM)

  • 양진호;프라시스 포우델;시리 크리스나 아차레;서군 수베디;정민아;이성로
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2015년도 추계학술발표대회
    • /
    • pp.1202-1204
    • /
    • 2015
  • 디지털 선박에서는 선박 내의 각종 센서로부터 측정된 디지털 데이터에 대한 정확하고 에너지 효율적인 관리가 필요하다. 본 논문에서는 디지털 선박 내에 다수 개의 센서(온도, 습도, 조도, 음성 센서)를 배치하고 효율적인 입력 스트림 처리를 위해서 슬라이딩 윈도우 기반으로 다중 Support Vector Machine(SVM) 알고리즘을 이용하여 사전 분류(pre-clustering)한 후 요약된 정보를 해쉬 테이블로 관리하는 효율적인 처리 기법을 제안한다. 해쉬 테이블을 이용하여 다차원 스트림 데이터의 저장될 레코드 순서를 빠르게 찾아 저장 및 검색함으로서 처리 속도가 향상되고 메모리에 해쉬 테이블 만을 유지하면 되므로 메모리 사용량이 감소한다. 35,912개의 데이터 집함을 사용하여 실험한 결과 제안 기법의 정확도와 처리 성능이 향상되었다.

통합수자원관리의 ETL, ELT 비교 연구 (The comparative study of IWRM between ETL and ELT)

  • 김순연;원영진
    • 한국수자원학회:학술대회논문집
    • /
    • 한국수자원학회 2023년도 학술발표회
    • /
    • pp.392-392
    • /
    • 2023
  • 통합수자원관리 IWRM(Integrated Water Resources Management)를 위한 다각도의 연구가 진행되고 있다. 구축된 정보의 활용 증진, 정책적 측면 등이 어우러져 고려되어야 비로소 통합으로서의 가치가 확보될 것이다. 본 고에서는 그중 데이터 측면을 살펴본다. 데이터 관점에서도 정보의 수집, 유통, 품질 등 여러 관점의 주제가 존재한다. 예를 들어 유통을 위한 메타데이터는 ISO 19139의 채택에서 추가 보완할 부분이 무엇인지, 유통을 위한 포맷과 인터페이스는 XML과 OGC WFS를 채택시 충분한 호환성이 확보되는지 등 이 주요한 검토요소가 될 것이다. 본 고에서는 이러한 고민에 앞서, 초기 절차인 시스템 적재 과정의 ETL(Extract, Transform and Load)과 ELT(Extract, Load and Transform) 방법을 비교하고자 한다. 수자원 분야 데이터를 사용한 예시 사례를 통하여, 최근 데이터 산업 분야에서 ETL과 ELT 차이가 이슈화되고 있는 이유를 살펴보고, 온프레미스와 클라우드 상황에 대하여 두 가지 방법의 장단점을 비교함으로서 다양한 데이터를 직면하게 되는 IWRM에서의 데이터 적응에 대한 힌트를 얻고자 한다. 기본적으로는 ETL보다 ELT의 효율성이 높을 것으로 전망된다. 그러나 해당 변환 과정이 일회성인지 반복적인지 고려해야 한다. 또한 변환에 있어 지배적인 요소가 변환 프로세스의 복잡도인지, 레코드 건수인지도 유불리에 영향을 준다. 비용측면에서는 ETL보다 ELT의 저장 비용이 증가할 수 있고, 이는 온프레미스 DBMS에서 PaaS 유형의 DBMS로 전환되어감에 따라 더 큰 부담이 될 수 있다. 무엇보다 ETL, ELT에서는 요구되는 변환 기술의 종류가 다르다. 예를 들어 Desktop GIS 도구와 ANSI 표준 SQL 기술로 대표될 수 있으며 각 수행조직에서는 보유 인적자원의 기술 현황과 학습곡선 등을 고려해야 한다. 결론적으로 ETL, ELT의 비교에 있어서는 처리시간과 동시에, 비용과 인적 자원 그리고 전략적 측면도 함께 검토되어야 한다.

  • PDF

파이프라인식 비순차실행 수퍼스칼라 프로세서의 FPGA 설계 및 구현 (FPGA Design and Implementation of A Pipelined Out-of-Order Superscalar Processor)

  • 이종복
    • 한국인터넷방송통신학회논문지
    • /
    • 제23권3호
    • /
    • pp.153-158
    • /
    • 2023
  • 국내에서 시스템반도체 설계의 중요성이 대두되고 있으며, 메모리 반도체 설계 기술과의 균형있는 발전을 도모해야 한다. Xilinx에서 제공하는 Vivado 통합 환경 도구를 이용하여 짧은 시간에 큰 비용을 들이지 않고 프로세서를 Xilinx FPGA 반도체 칩에 구현할 수 있다. 본 논문에서는 레코드 자료구조를 지원하여 효율적으로 디지털 시스템을 설계할 수 있는 VHDL을 이용하여 32 비트 ARM 명령어를 실행할 수 있는 파이프라인식 비순차실행 수퍼스칼라 프로세서를 설계하였다. Vivado에서 광범위한 시뮬레이션을 수행한 후에, Xilinx FPGA로 합성, 구현 및 로직아날라이저로 검증하였다. 그 결과, 파이프라인식 비순차실행 수퍼스칼라 프로세서가 FGPA에서 성공적으로 동작하였다.

의료 데이터의 자기지도학습 적용을 위한 pretext task 분석 (Pretext Task Analysis for Self-Supervised Learning Application of Medical Data)

  • 공희산;박재훈;김광수
    • 한국정보통신학회:학술대회논문집
    • /
    • 한국정보통신학회 2021년도 춘계학술대회
    • /
    • pp.38-40
    • /
    • 2021
  • 의료 데이터 분야는 레코드 수는 많지만 응답값이 없기 때문에 인공지능을 적극적으로 활용하지 못하고 있다. 이러한 문제점을 해결하기 위해 자기지도학습(Self-Supervised learning)을 의료 분야에 적용하는 연구가 등장하고 있다. 자기지도학습은 model이 레이블링이 없는 데이터의 semantic 표현을 이해할 수 있도록 pretext task와 supervision을 학습한다. 그러나, 자기지도학습의 성능은 pretext task로 학습한 표현에 의존하므로 데이터의 특성에 적합한 pretext task를 정의할 필요가 있다. 따라서 본 논문에서는 의학 데이터 중 활용도가 높은 x-ray 이미지에 적용할 수 있는 pretext task를 실험적으로 탐색하고 그 결과를 분석한다.

  • PDF

대용량 텍스트 데이터베이스를 위한 효율적인 2단계 합성 요약 화일 방법 (An Effcient Two-Level Hybrid Signature File Method for Large Text Databases)

  • 유재수;강형일
    • 한국정보처리학회논문지
    • /
    • 제4권4호
    • /
    • pp.923-932
    • /
    • 1997
  • 본 논문은 대용량의 텍스트 문서를 효율적으로 처리하기 위해 단어 분별도(trrm discrimination)개념을 이용한 2단계 합성 요약화일 방법(THM)을 제안한다. 또한 보다 더 나은 검색성능을 위해 2단계 합성 요약 화일 방법에 고분별력 단어들의 유사성에 의해 유사한 요약들은 함께 결집하는 Yoo가 제안한 요약결집 방법을 적용한다. 검색 시간, 부가 저장 공간 측면에서 제안된 2단계 합성 요약화일(THM)의 성능 분석 모델을 제공하고 기존의 방법들 즉, 비트 슬라이스 방법(BM), 2단계 요약화일 방법(TM) 합성 방법(HM)들과 성능 평가를 수행한다. 성능 비교결과 일치하는 레코드 수가 160이하일때 100,000개의 대용량 데이터베이스에서 제안된 THM이 검색 성능면에 있어서 가장 좋은 성능을 보인다.

  • PDF

대용량 데이터 서비스를 위한 SANique Smart Vault 백업 시스템의 설계 및 구현 (Design and Implementation of SANique Smart Vault Backup System for Massive Data Services)

  • 이규웅
    • 컴퓨터교육학회논문지
    • /
    • 제17권2호
    • /
    • pp.97-106
    • /
    • 2014
  • 다양한 데이터 집중적인 응용 서비스의 증가로 인해 사용자 데이터가 급증하고 있으며 방대한 양의 데이터 저장 및 백업에 대한 관심이 높아지고 있다. 특히 기존 일반적 증분백업 기술들이 SAN 기반의 대용량 데이터 서비스 환경에 적합하지 않아 백업 시스템의 성능저하 문제가 심각하다. SANique Smart Vault 시스템은 이러한 요구사항을 만족하는 데이터 중복제거 기반의 고성능 백업 솔루션이다. 본 논문에서는 SANique Smart Vault 시스템의 개략적 시스템 구조에 대하여 설명하고 특히 백업대상 목록의 탐색과정을 개선한 저널링 기반의 델타 증분백업 기술 및 레코드 레벨의 데이터 중복제거 기능의 구현기술에 대하여 설명한다. 또한 제안된 무기한 증분백업 기능과 데이터 중복 제거 기능은 타 상용 시스템들과의 성능비교를 통해 백업 오버헤드 측면의 성능 우수성을 보인다.

  • PDF

클러스터링 해쉬 테이블을 이용한 다차원 선박 USN 스트림 데이터의 효율적인 처리 (Efficient Processing of Multidimensional Vessel USN Stream Data using Clustering Hash Table)

  • 송병호;오일환;이성로
    • 대한전자공학회논문지SP
    • /
    • 제47권6호
    • /
    • pp.137-145
    • /
    • 2010
  • 디지털 선박에서는 선박 내의 각종 센서로부터 측정된 디지털 데이터에 대한 정확하고 에너지 효율적인 관리가 필요하다. 그러나, 센서 네트워크에서 대용량 스트림 데이터를 제한된 네트워크, 전력, 프로세서를 이용하여 모든 센서 데이터를 전송하고 분석하는 것은 어렵고 효율적이지 못하다. 그러므로, 연속적으로 입력되는 데이터를 사전에 분류하여 특성에 따라 선택적으로 데이터를 처리하는 데이터 분류 기법이 요구된다. 본 논문에서는 디지털 선박 내에 다수 개의 센서(온도, 습도, 조도, 음성 센서)를 배치하고 효율적인 입력 스트림 처리를 위해서 슬라이딩 윈도우 기반으로 다중 Support Vector Machine(SVM) 알고리즘을 이용하여 사전 분류(pre-clustering)한 후 요약된 정보를 해쉬 테이블로 관리하는 효율적인 처리 기법을 제안한다. 해쉬테이블을 이용하여 다차원 스트림 데이터의 저장될 레코드 순서를 빠르게 찾아 저장 및 검색함으로서 처리 속도가 향상되고 메모리에 해쉬 테이블 만을 유지하면 되므로 메모리 사용량이 감소한다. 35,912개의 데이터 집합을 사용하여 실험한 결과 제안 기법의 정확도와 처리 성능이 향상되었다.