• 제목/요약/키워드: 데이터 출처

검색결과 74건 처리시간 0.033초

Fact constellation 스키마와 트리 기반 XML 모델을 적용한 실험실 레벨의 단백질 데이터 통합 기법 (An Approach for Integrated Modeling of Protein Data using a Fact Constellation Schema and a Tree based XML Model)

  • 박성희;이영화;류근호
    • 정보처리학회논문지D
    • /
    • 제11D권3호
    • /
    • pp.519-532
    • /
    • 2004
  • 유전자 및 단백질간의 복잡한 상호작용에 의해 기능이 결정되는 생명정보 데이터의 특성으로 인하여 생명정보 데이터 분석을 위해서는 이질적인 데이터를 통합적으로 분석할 수 있는 통합시스템이 요구된다. 따라서 이 논문에서는 생물학 실험실 레벨에서 단백질 구조 관련 데이터를 통합할 수 있도록 XML 모델기반에 웨어하우스 미디에이터 통합시스템을 제안한다. 제안 시스템은 fact constellation 모델을 기반하여 이질적인 소스에 대한 통합 모델링을 진행하고 통합 스키마를 XML 스키마로 변환하여 유지한다. 또한 통합 데이터베이스에 포함된 소스 데이터의 변경 및 출처에 대한 추적 관리를 위해 데이터의 점진적 갱신방법과 서열에 대한 버전관리를 이용한다. 실제로 이 시스템을 단백질 구조(PDB), 서열(Swiss-Prot)과 도메인 분류데이터(CATH) 통합에 적용한 통합 모델링 과정을 보여준다.

감염병 위기 대응을 위한 소셜 데이터 수집 및 적재 엔진 기반 신뢰도 분석 시스템 개발 (Development of Social Data Collection and Loading Engine-based Reliability analysis System Against Infectious Disease Pandemic)

  • 정두영;이상준;민경일;정석송;한현욱
    • 한국빅데이터학회지
    • /
    • 제7권2호
    • /
    • pp.103-111
    • /
    • 2022
  • 감염병 대응과 관련된 기관, 조직, 사이트 등의 다수 운영되고 있으나 코로나-19와 같은 팬더믹 상황이 수년간 지속됨에 따라 초기양상과 현재 양상의 수많은 변화가 있으며 이에 따른 정책과 대응체계도 진화하고 있다. 이에 따른 지역별 격차가 발생하고 정책에 대한 신뢰와 불신, 이행도에 따른 여러 가지 문제들이 산재해 있다. 따라서 본 연구에서는 정보전염이 포함된 소셜 데이터를 분석하는 과정에서 루머가 포함된 데이터를 수집하는 과정에서 팩트 체크가 되는 언론 매체와 다르게 정확한 출처를 알 수 없는 부정확한 정보들이 포함되는 주요 소셜 미디어 플랫폼 중의 하나인 트위터 데이터를 수집하여 사실과 무관한 내용을 사전 차단하는 시스템을 개발했다. 비정형데이터인 소셜데이터를 기반으로 감염병 위협을 자동 감지할 수 있는 알고리즘을 개발하여 감염병 위기 대응과 관련된 객관적인 근거를 창출함으로써 관련 분야 국제경쟁력을 공고히 하고자 한다.

A study of scratched off dust from the vacuum vessel during the KSTAR operation by Gamma Spectrometry

  • 김희수;정연걸;이영석;김상태;박갑래;곽종구
    • 한국진공학회:학술대회논문집
    • /
    • 한국진공학회 2016년도 제50회 동계 정기학술대회 초록집
    • /
    • pp.425.2-425.2
    • /
    • 2016
  • 토카막(TOKAMAK) 장치의 진공용기 및 용기내벽은 플라즈마(Plasma)에 의한 고열과 높은 에너지의 이온 입자들에 항상 노출되어 있는 환경이다. 토카막의 일종인 KSTAR장치의 진공용기는 스테인레스강(STS316)계열의 재질로 이루어져 있고, 플라즈마와 면하는 용기 벽면은 플라즈마에 대해 견딜 수 있도록 그라파이트 타일(graphite tile)로 구성되어 있다. 고에너지의 이온 입자들과 열플럭스(Heatflux)는 용기벽면과 용기를 침식시키고, 또한 이렇게 생겨난 분진(dust)들은 진공용기 내 여기저기를 떠다니게 되고, 플라즈마에 대해서 불순물로서 작용하게 된다. 본 연구에서는 감마분석법으로 플라즈마에 의해 진공용기 내에 집적된 분진들의 구성 성분을 분석하여 주요 출처를 규명할 수 있는 방법을 제시하고, KSTAR 플라즈마의 불순물 제어에 유용하게 활용 할 수 있는 데이터를 제공하여 향후 KSTAR의 고성능 플라즈마 기술개발에 일조할 수 있도록 하고자 한다.

  • PDF

MD-계열에 기반한 새로운 해쉬 함수와 MAC에의 응용 (A new hash function based on MD-family and its application to the MAC)

  • 신상욱;류대현;이상진;이경현
    • 한국정보보호학회:학술대회논문집
    • /
    • 한국정보보호학회 1997년도 종합학술발표회논문집
    • /
    • pp.91-100
    • /
    • 1997
  • 암호학적으로 안전한 해쉬 함수는 디지털 서명, 메시지 인증, 키 유도와 같은 분야에서 중요한 암호 도구이다 현재까지 제안된 소프트웨어로 고속 수행이 가능한 해쉬 함수들의 대부분은 Rivest가 제안한 MD4의 설계 원리에 기반을 두고 있다. 이들 MD 계열 해쉬 함수 중에서 현재 안전하다고 알려진 전용 해쉬 함수는 SHA-1, RIPEMD-160, HAVAL 등이다. 본 논문에서는 이들 세 가지 해쉬 함수들의 장점에 기반하여 이들 함수들이 가지는 안전성을 최대한 유지하면서 보다 효율적인 새로운 해쉬 함수를 제안한다. 제안된 해쉬 함수는 임의 길이 메시지를 512비트 단위로 처리하여 160비트의 출력을 가지며, 입력 데이터에 의존한 순환이동(data-dependent rotation)의 특징을 가짐으로써 기존에 알려진 공격에 강인함을 보장한다. 또한 제안된 해쉬 함수를 이용한 메시지 인증 코드(Message Authentication Code:MAC) 구성 알고리즘을 제안한다 MAC은 두 번째 입력, 즉 비밀키를 가진 해쉬 함수로 keyed 해쉬 함수라고 하며, 메시지 출처 인증과 무결성 확인을 제공한다. 제안된 MAC은 최대 160-비트의 키를 사용하며 해쉬 결과보다 같거나 적은 MAC 결과를 가지며, 성능 면에서 사용되는 해쉬 함수에 비해 약 10% 정도의 저하를 초래한다.

  • PDF

Biometric System에서의 Privacy 보호 기술

  • 최경택;박강령;김재희
    • 정보보호학회지
    • /
    • 제15권6호
    • /
    • pp.19-30
    • /
    • 2005
  • 본 논문은 현재 생체인식에서의 큰 문제로 대두되고 있는 개인 정보(Privacy) 보호문제를 해결하기 위한 방법들을 소개하고 있다. 이를 위해서는 여러 가지 기술이 사용되는데, 우선 생체정보가 도난 되었을 경우 그 피해를 최소화하기 위해 원래의 생체정보를 저장하는 것이 아니라 변환된 생체정보를 저장하고 사용하는 생체정보 변환 기술을 소개한다. 또한 원래의 생체정보가 유출되어 이를 이용해 위조 생체 등을 만들어 공격할 경우를 대비할 수 있는 위조 생체 검출 기술을 소개하며, 생체정보의 유출된 출처를 찾기 위해 생체정보에 소유권 등을 표시하는 데이터 은닉 기법도 소개한다. 이 외에 생체정보를 이용하여 일반적인 암호화 알고리즘에 사용되는 키를 은닉하고 생체정보를 통해 인증된 사용자에 한하여 키를 사용하도록 하는 방법도 소개한다. 끝으로 이러한 개인 정보 보호 기술들을 이용하여 생체인식 시스템의 보안성을 향상시키는 방법에 대하여 논의한다.

네트워크 패킷 레벨에서 알려진 실행 파일 식별 및 차단 연구 (Research on the identification and blocking of known executalbe files at the network packet level)

  • 조용수;이희조
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2020년도 춘계학술발표대회
    • /
    • pp.177-179
    • /
    • 2020
  • 최근의 사이버 침해 사고는 공격 대상을 지정하여 지속적으로 공격을 시도하는 APT(Advanced Persistent Threat)와 랜섬웨어(Ransomware) 공격이 주를 이룬다. APT 공격은 dirve by download 를 통하여 의도하지 않은 파일의 다운로드를 유도하고, 다운로드 된 파일은 역통신채널을 만들어 내부 데이터를 외부로 유출하는 방식으로 공격에 사용되는 악성 파일이 사용자 모르게 다운로드 되어 실행된다. 랜섬웨어는 스피어 피싱 (Spear-phishing) 과 같은 사회공학기법을 이용하여 신뢰 된 출처로 유장 된 파일을 실행하도록 하여 주요 파일들을 암호화 한다. 때문에 사용자와 공격자 사이 네트워크 중간에 위치한 패킷 기반의 보안 장비들은 사용자에 의해 다운로드 되는 파일들을 선제적으로 식별하고, 차단하여 침해 확산을 방지 할 수 있는 방안이 필요하다. 본 논문에서는 네트워크 패킷 레벨에서 알려진 악성파일을 식별하고 실시간 차단하는 방안에 대하여 연구하고자 한다.

3GPP 무결성 알고리즘 f9의 증명가능 안전성 (Provable Security of 3GPP Integrity Algorithm f9)

  • Hong, Do-won;Shin, Sang-Uk;Ryu, Heui-su;Chung, Kyo-Il
    • 정보처리학회논문지C
    • /
    • 제9C권4호
    • /
    • pp.573-580
    • /
    • 2002
  • 3GPP의 비동기식 IMT-2000 시스템의 보안 구조에는 표준 무결성 알고리즘 f9가 있다. f9는 비동기식(W-CDMA) IMT-2000의 무선 구간에서 데이터 무결성과 시그널링 데이터의 출처를 인증하기 위한 메시지 인증 코드(MAC)를 계산하는 알고리즘으로 블록 암호 KASUMI에 기반한 CBC-MAC의 변형이다. 이 논문은 f9의 증명 가능한 안전성을 제공한다. 기반이 되는 블록 암호가 유사 랜덤 순열이면 어떤 공격자에 대해서도 f9가 안전함을 증명한다.

로버스트 회귀모형을 이용한 자료결합방법 (Statistical Matching Techniques Using the Robust Regression Model)

  • 전명식;정시송;박혜진
    • 응용통계연구
    • /
    • 제21권6호
    • /
    • pp.981-996
    • /
    • 2008
  • 서로 다른 출처로부터 얻어진 데이터 파일들을 하나의 데이터 파일로 만드는 통계적 자료결합방법은 공통변수와 서로 다른 고유변수를 포함하여 변수들 간에 존재하는 관련성에 대해 살펴볼 수 있다. Robin (1986)이 제안한 일반회귀모형의 예측값을 이용한 통계적 결합방법은 자료에 대한 다변량 정규성을 가정하기 때문에 이 가정을 위반하는 자료를 이용하는 것은 많은 문제를 수반한다. 본 연구는 제공파일의 고유변수에 모분포를 반영하지 못하는 특이점이 존재하는 경우, 일반회귀모형을 이용한 통계적 결합방법의 대안으로 로러스트 회귀추정방법을 이용한 자료결합방법을 제안하였다. 나아가 로버스트 회귀모형을 이용한 결합방법과 일반회귀모형을 이용한 결합방법에서의 상관관계 및 결정계수 보존에 관한 성능을 비교하기 위하여 모의실험을 수행하였다.

효율적인 하천정보관리 체계 구축을 위한 선진 사례 분석 (Developing Advanced River Information Management System)

  • 서지원;황의호;채효석
    • 한국수자원학회:학술대회논문집
    • /
    • 한국수자원학회 2012년도 학술발표회
    • /
    • pp.641-641
    • /
    • 2012
  • 하천관련 정보관리기술의 발전을 위해서는 관련자료 출처 발굴과 자료의 통합관리 및 분석 기술개발 등의 노력이 필요하다. 이에 따라 하천관련 정보에 대한 관리기술의 선진사례 분석을 통하여 국외의 앞선 기술을 살펴보고 국내 적용 방안을 제시하고자 한다. 본 연구에서 분석한 미국의 HIS (Hydrologic Information System)는 CUAHSI (Consortium of Universities for the Advancement of Hydrologic Science, Inc)에서 수행하는 연구 활동의 하나로서 개방형 프로젝트로 개발되고 있으며 수문분석에 필요한 정보를 통합하여 관리하고 배포하는 기능을 수행하고 있다. CUAHSI-HIS는 웹기반 시스템이며 HIS 중심부(데이터 목록), Hydro 서버(데이터 게시), HydroDesktop (사용자 검색툴)으로 구성되어 있다. 이 세 개의 핵심 요소들은 상호작용을 통해 운영되며 미국 내의 모든 물관련 자료를 발굴하고 수집한다. 이렇게 발굴 수집된 자료는 WaterML로 표준화하여 다양한 사용자가 쉽게 사용할 수 있도록 제공된다. 국내의 경우 RIMGIS와 WAMIS 등이 하천정보를 제공하고 있지만 변화된 하천운영 환경을 반영하여 사용자에게 보다 체계적이고 효율적인 정보를 제공하기 위해서는 정보의 표준화 및 시스템 구성환경 등 다양한 측면에서 검토가 필요하다. 이를 위해 CUAHSI-HIS 연구사례를 벤치마킹하여 국내 실정에 맞는 적용방안을 수립하여 구축하게 된다며 체계적인 정보관리 및 활용성을 극대화할 수 있을 것으로 사료된다.

  • PDF

국내 HR Analytics 연구에서 활용한 데이터와 분석방법에 대한 체계적문헌고찰 (A Systematic Literature Review of Data and Analysis Methods Used in HR Analytics Research)

  • 정재삼;조예인;양하영;진명화;박효성;이재영
    • 한국콘텐츠학회논문지
    • /
    • 제22권9호
    • /
    • pp.614-627
    • /
    • 2022
  • 본 연구는 국내 HR Analytics 연구에서 활용한 데이터와 분석방법을 탐색하여 향후 연구를 위한 기초자료를 제공하고 HR Analytics 연구 현황을 밝히는 것을 목적으로 한다. 이를 위하여 체계적 문헌고찰 방법을 활용하여 국내 KCI 등재 학술지에 수록된 실증연구 논문 78편을 선정하였고 해당 논문을 근로자 생애주기에 따라 분류하여 검토하였다. 문헌고찰 결과 다음과 같은 결과를 얻을 수 있었다. 첫째, 근로자 생애주기에 따른 HR Analytics 연구 동향을 살펴본 결과, 선행연구에서는 구성원의 유지(retention)와 관련한 연구가 가장 많았고 성과 관리에 대한 연구가 그 뒤를 이었다. 둘째, HR Analytics 연구에서 사용한 데이터를 살펴본 결과 각 연구는 해당 연구문제에 따라 다양한 데이터(정형, 비정형)를 활용하고 있었으며 데이터 출처 또한 조직내부 시스템부터 국가 통계 DB까지 매우 다양한 것으로 확인하였다. 셋째, 문헌고찰 결과 국내 HR Analytics 연구는 기술적, 진단적 분석이 가장 많으며, 예측 및 처방과 관련한 연구는 미미한 수준임을 알 수 있었다.