• 제목/요약/키워드: Information codes

검색결과 2,109건 처리시간 0.029초

신규 취약점 공격에 대한 효율적인 방어 메커니즘 (Effective Defense Mechanism Against New Vulnerability Attacks)

  • 곽영옥;조인준
    • 한국콘텐츠학회논문지
    • /
    • 제21권2호
    • /
    • pp.499-506
    • /
    • 2021
  • 해커들의 사이버 공격기법은 전에 볼 수 없었던 형태의 공격으로 점점 더 정교해지고 다양화 되고 있다. 정보 보안 취약점 표준 코드(CVE)측면에서 살펴보면 2015년에서 2020년에 약 9 만 건의 신규 코드가 등록되었다[1]. 이는 보안 위협이 빠르게 증가하고 있음을 나타내고 있다. 신규 보안 취약점이 발생하면 이에 대한 대응 방안 마련을 통해 피해를 최소화해야 하지만, 기업의 경우 한정된 보안 IT예산으로 보안관리 수준과 대응체계를 감당하기에는 역 부족인 경우가 많다. 그 이유는 수동 분석을 통해 분석가가 취약점을 발견하고 보안장비를 통한 대응 방안 마련 및 보안 취약점 패치 까지 약 한 달의 시간이 소요되기 때문이다. 공공분야의 경우에는 국가사이버안전센터에서는 보안운영정책을 일괄적으로 배포하고 관리하고 있다. 하지만, 제조사의 특성에 따라 보안규칙을 수용하는 것이 쉽지 않으며, 구간 별 트래픽 검증작업까지 약 3주 이상의 시간이 소요된다. 그 외 비 정상적인 트래픽 유입이 발생하면 취약점 분석을 통한 침해행위 공격 검출 및 탐지와 같은 대응방안을 마련해야 하나, 전문적인 보안전문가 부재로 인하여 대응의 한계가 존재한다. 본 논문에서는 신규 보안 취약점 공격에 효과적인 대응 방안 마련을 위해 보안규칙정보 공유사이트 "snort.org"를 활용하는 방안을 제안하였다.

만성질환을 동반한 노인 응급환자 추이: 2014-2019 (Trend of Emergency Department Visits for Elderly Patients with Chronic Diseases : 2014-2019)

  • 이명화;김지연;허영진;오미라
    • 융합정보논문지
    • /
    • 제11권1호
    • /
    • pp.183-190
    • /
    • 2021
  • 본 논문은 만성질환으로 응급실에 내원한 노인 환자의 응급의료 이용 변화 추이를 알아보고자 하였다. 2014년 1월 1일부터 2019년 12월 31일까지의 국가응급진료정보망 자료에서 응급실 퇴실 주 진단 상병코드가 8개 만성질환에 해당하는 환자를 선택하여 응급실 이용 현황 및 응급실 내원과 입원의 변화 추이를 살펴보았다. 2014년을 기준으로 만성질환으로 응급실을 내원한 노인 환자는 지속 증가하였고, 특히 85세 이상의 환자가 급격히 증가하였다. 만성질환별 응급실 내원 비율 변화추이에서는 대부분 질환에서 증가세를 보였고(P<0.001), 그 중 허혈성심장질환, 관절병증에서 높은 증가율을 보였으나 고지혈증은 전 연령에서 감소세를 보였다(P<0.001). 응급실 입원율 변화 추이에서는 고지혈증, 고혈압, 결핵을 제외한 만성질환에서 지속적으로 증가세를 보였다(P<0.001). 만성질환을 가진 노인 환자의 응급실 내원 및 입원율의 지속적인 증가는 응급의료자원의 점유 및 의료 소비량 증가 문제를 가속시킬 수 있는 원인으로 작용할 수 있으므로 적절한 만성질환 관리가 필요하다.

미국 공동주택의 건물 외피 에너지코드 검증을 위한 BIM 에너지 계획 방안 -뉴욕시 에너지 코드를 기준으로- (BIM Energy Efficiency Plan for Verification of Building Envelop Energy Code of Housing in USA - Based on the NYC Energy Conservation Code -)

  • 허진우
    • 문화기술의 융합
    • /
    • 제8권4호
    • /
    • pp.313-322
    • /
    • 2022
  • BIM의 생산성과 효율성 때문에 건축설계 방식으로 BIM을 선택하는 건축가들이 증가하고 있다. 또한 건물의 에너지 사용량에 대한 인식 제고와 환경에 대한 관심이 높아지면서 빌딩에너지 코드의 필요성에 대한 요구가 증가하고 있다. 현재 많이 사용하고 있는 2D CAD 설계방식으로는 건물 외피 에너지코드를 검정하는데 많은 시간과 노력이 소요되며 디자인 변경에 다른 즉각적인 대응이 어렵다. 이 연구의 목적은 BIM을 통한 건물 외피 에너지 모델링의 효율성을 보여주는 데 있다. 우리는 BIM을 통해 설계과정에서 디자인 변경에 따른 정보 값을 누락이나 재계산 과정 없이 동시에 산출할 수 있기 때문에 건물 외피 에너지코드 검증에서 생산성과 효율성을 높이는 데 기여할 수 있다. 연구의 절차는 다음과 같다. Revit 2011으로 만든 the Goldin at Essex Crossing 공동주택의 BIM을 사례 모델로 하여, 뉴욕시의 에너지 코드에 부합하기 위한 에너지 계획의 기준을 분석한다. Revit 모델의 설정을 통해 나온 결과 값과 뉴욕시의 에너지코드에서 요구하는 기준 값을 비교한다. 최종적으로 미국 에너지국 (U.S. Department of Energy)에서 제공하는 에너지 검증 프로그램인 COMcheck에 데이터값을 입력하여 건물 외피 에너지 성능이 뉴욕시 에너지 코드에 부합하는 지 여부를 체크한다.

국내 기관 소속 연구자의 데이터 가용성 진술 (Data Availability Statements) 현황 연구: PLOS ONE 학술지를 중심으로 (A Study on the Data Availability Statements of Researchers Affiliated with Korean Institutions: Focusing on the PLOS ONE)

  • 안병군;변제연
    • 정보관리학회지
    • /
    • 제40권1호
    • /
    • pp.225-258
    • /
    • 2023
  • 본 연구는 국내 연구자가 저술한 논문의 데이터 가용성 진술(DAS)에 명시된 데이터 공유 메커니즘과 리포지터리를 조사함으로써 국내 연구자의 연구데이터 공유 현황과 특징을 탐구하는 것을 목적으로 한다. 이를 위하여 2014년부터 2022년까지 PLOS ONE에 게재된 국내기관 소속 연구자의 논문을 연구의 대상으로 선정하였다. 우선 논문 내 DAS 존재 현황을 파악하고 선행연구를 활용하여 데이터 공유 메커니즘의 유형을 분석하였으며, 시간의 흐름에 따른 데이터 공유 메커니즘별 변화 추이 등을 조사하였다. 그 결과, 대상 논문의 99.6%에 DAS가 작성되어 있으며 데이터 공유 메커니즘의 유형별 언급 양상은 국제적인 양상과 유사하되, 시간의 흐름에 따라 선호되는 유형이 변화하고 있음을 파악하였다. 이후 데이터 공유 메커니즘 중 리포지터리에 주목하여 DAS에 언급된 리포지터리의 횟수와 비율을 파악하고 다수 언급된 5개 리포지터리의 이용 변화 추이를 시계열적으로 분석하였다. 또한 리포지터리와 함께 언급된 데이터 접근점의 제시 방식과 유형, 유효성 등도 함께 조사하였다. 이를 통해 빈번하게 언급되는 상위 5개 리포지터리가 전체 리포지터리 언급의 60%를 차지하며 데이터 코드를 다루는 리포지터리의 이용이 증가하는 현황이 확인되었고, 리포지터리와 함께 제시된 데이터의 접근점은 대부분 유효하다는 사실을 파악할 수 있었다.

효율적인 이미지 검색 시스템을 위한 자기 감독 딥해싱 모델의 비교 분석 (Comparative Analysis of Self-supervised Deephashing Models for Efficient Image Retrieval System)

  • 김수인;전영진;이상범;김원겸
    • 정보처리학회논문지:소프트웨어 및 데이터공학
    • /
    • 제12권12호
    • /
    • pp.519-524
    • /
    • 2023
  • 해싱 기반 이미지 검색에서는 조작된 이미지의 해시코드가 원본 이미지와 달라 동일한 이미지 검색이 어렵다. 본 논문은 이미지의 질감, 모양, 색상 등 특징 정보로부터 지각적 해시코드를 생성하는 자기 감독 기반 딥해싱 모델을 제안하고 평가한다. 비교 모델은 오토인코더 기반 변분 추론 모델들이며, 인코더는 완전 연결 계층, 합성곱 신경망과 트랜스포머 모듈 등으로 설계된다. 제안된 모델은 기하학적 패턴을 추출하고 이미지 내 위치 관계를 활용하는 SimAM 모듈을 포함하는 변형 추론 모델이다. SimAM은 뉴런과 주변 뉴런의 활성화 값을 이용한 에너지 함수를 통해 객체 또는 로컬 영역이 강조된 잠재 벡터를 학습할 수 있다. 제안 방법은 표현 학습 모델로 고차원 입력 이미지의 저차원 잠재 벡터를 생성할 수 있으며, 잠재 벡터는 구분 가능한 해시코드로 이진화 된다. CIFAR-10, ImageNet, NUS-WIDE 등 공개 데이터셋의 실험 결과로부터 제안 모델은 비교 모델보다 우수하며, 지도학습 기반 딥해싱 모델과 동등한 성능이 분석되었다.

정밀도로지도 개선을 위한 정밀도로지도 객체 활용성 검증 (High Definition Road Map Object usability Verification for High Definition Road Map improvement)

  • 오종민;송용현;홍송표;신영민;고영진
    • 한국측량학회지
    • /
    • 제38권4호
    • /
    • pp.375-382
    • /
    • 2020
  • 세계적으로 4차 산업혁명 시대에 접어들면서 자율주행차에 대한 관심이 증대되고 있으나 최근 보행자사고, 차대차사고 등 안전 확보 등의 이슈로 이에 대한 기술적인 모델로서 차선, 노면표시 등 도로정보와 신호등, 교통표지판 등 시설물 정보가 포함된 3차원 정밀도로지도(HD Map: High Definition Map) 수요가 높아지고 있다. 하지만, 수요에 따른 일부 보완점들이 계속적으로 제기되고 있어, 정밀도로지도를 활용하는 기관·기업들의 의견을 수렴하고 그에 따른 정밀도로지도의 개선이 필요한 실정이다. 본 연구는 국토지리정보원에서 주최하고 공간정보산업진흥원에서 주관했던 정밀도로지도 활용성 검증 공모전의 결과를 활용하여 연구를 수행하였다. 본 연구를 위해서 정밀도로지도의 개선을 위한 정밀도로지도 객체 검증을 위해 정밀도로지도의 레이어 및 레이어 코드를 조사하고, 그에 따라 정밀도로지도 객체 검증 항목을 구성하였으며 그 항목에 따라 정밀도로지도 활용성 검증 공모전 참가자들이 검증을 수행하고, 그 결과를 분석하였다. 그 결과 참가자들이 가장 많이 사용한 레이어별 코드는 평면교차로 등이며, 가장 높은 사용률을 보여주는 코드는 안전표지로 나타났다. 또한 부속구간 및 높이 장애물의 사용률은 각각 16.67%, 8.88%로 낮은 비율을 보여주었다. 이번 연구로 향후 정밀도로지도의 활용을 위해서 지속적으로 수요처의 의견을 수렴하여 수요처에서 실제로 필요한 레이어와 이에 대한 데이터 모델을 개선하는 연구가 필요할 것으로 예상된다.

역사기록물(Archives)의 항구적인 보존화 이용 : 보존전략과 디지털정보화 (Permanent Preservation and Use of Historical Archives : Preservation Issues Digitization of Historical Collection)

  • 이상민
    • 기록학연구
    • /
    • 제1호
    • /
    • pp.23-76
    • /
    • 2000
  • In this paper, I examined what have been researched and determined about preservation strategy and selection of preservation media in the western archival community. Archivists have primarily been concerned with 'preservation' and 'use' of archival materials worth of being preserved permanently. In the new information era, preservation and use of archival materials were faced with new challenge. Life expectancy of paper records was shortened due to acidification and brittleness of the modem papers. Also emergence of information technology affects the traditional way of preservation and use of archival materials. User expectations are becoming so high technology-oriented and so complicated as to make archivists act like information managers using computer technology rather than traditional archival handicraft. Preservation strategy plays an important role in archival management as well as information management. For a cost-effective management of archives and archival institutions, preservation strategy is a must. The preservation strategy encompasses all aspects of archival preservation process and practices, from selection of archives, appraisal, inventorying, arrangement, description, conservation, microfilming or digitization, archival buildings, and access service. Those archival functions should be considered in their relations to each other to ensure proper preservation of archival materials. In the integrated preservation strategy, 'preservation' and 'use' should be combined and fulfilled without sacrificing the other. Preservation strategy planning is essential to determine the policies of archives to preserve their holdings safe and provide people with a maximum access in most effective ways. Preservation microfilming is to ensure permanent preservation of information held in important archival materials. To do this, a detailed standardization has been developed to guarantee the permanence of microfilm as well as its product quality. Silver gelatin film can last up to 500 years in the optimum storage environment and the most viable option for permanent preservation media. ISO and ANIS developed such standards for the quality of microfilms and microfilming technology. Preservation microfilming guidelines was also developed to ensure effective archival management and picture quality of microfilms. It is essential to assess the need of preservation microfilming. Limit in resources always put a restraint on preservation management. Appraisal (and selection) of what to be preserved was the most important part of preservation microfilming. In addition, microfilms with standard quality can be scanned to produce quality digital images for instant use through internet. As information technology develops, archivists began to utilize information technology to make preservation easier and more economical, and to promote use of archival materials through computer communication network. Digitization was introduced to provide easy and universal access to unique archives, and its large capacity of preserving archival data seems very promising. However, digitization, i.e., transferring images of records to electronic codes, still, needs to be standardized. Digitized data are electronic records, and st present electronic records are very unstable and not to be preserved permanently. Digital media including optical disks materials have not been proved as reliable media for permanent preservation. Due to their chemical coating and physical character using light, they are not stable and can be preserved at best 100 years in the optimum storage environment. Most CD-R can last only 20 years. Furthermore, obsolescence of hardware and software makes hard to reproduce digital images made from earlier versions. Even if when reformatting is possible, the cost of refreshing or upgrading of digital images is very expensive and the very process has to be done at least every five to ten years. No standard for this obsolescence of hardware and software has come into being yet. In short, digital permanence is not a fact, but remains to be uncertain possibility. Archivists must consider in their preservation planning both risk of introducing new technology and promising possibility of new technology at the same time. In planning digitization of historical materials, archivists should incorporate planning for maintaining digitized images and reformatting them in the coming generations of new applications. Without the comprehensive planning, future use of the expensive digital images will become unavailable. And that is a loss of information, and a final failure of both 'preservation' and 'use' of archival materials. As peter Adelstein said, it is wise to be conservative when considerations of conservations are involved.

프로덕트 모델 중심의 설계, 시공 정보 통합 방법론 (A Product Model Centered Integration Methodology for Design and Construction Information)

  • 이근형;김재준
    • 한국건설관리학회:학술대회논문집
    • /
    • 한국건설관리학회 2002년도 학술대회지
    • /
    • pp.99-106
    • /
    • 2002
  • 최근 건설 정보 통합 모델에 설계 요소를 반영하는 개념이 발표되고, 4D CAD 시스템을 이용한 정보 통합에 대한 연구들이 수행되었으며, 현재까지 그 활용분야를 넓히고 있다. 하지만, 이러한 형태의 정보통합은 특정 응용 프로그램을 중심으로 이루어지기 때문에 각 조직만의 독특한 내용적 특성을 반영할 수 없으며, 기존의 프로그램과 다른 새로운 프로그램의 도입 및 개발에 따른 유지, 보수 비용을 요구하는 등의 단점이 있다. 본 연구에서는 이러한 문제들을 해결하기 위하여 정보통합을 위한 새로운 접근 방법으로써 '프로덕트 모델 중심의 설계, 시공 정보 통합 방법론'을 제시하고 이에 대한 비교 평가를 위하여 기존의 방법론에 대한 선행 연구를 수행하였다. 이를 위하여 현재 설계, 공정 정보의 통합을 위하여 널리 사용되고 있는 4D CAD 개념을 조사, 분석하였다. 연구 분석 결과 기존의 통합 방법론은 여러가지 장점이 있었지만, 전체 건설사업의 생애주기 중 후반부에 통합이 이루어지기 때문에 정보 활용의 기회가 적으며, 후속단계에서 원시정보의 활용이 미흡하고, 통합 정보의 활용 범위가 상용프로그램이 제공하는 기능으로 제한되고, 3차원 프로덕트 모델에 대한 관리가 곤란하였다. 이러한 단점을 해결하기 위한 설계, 시공 정보의 통합을 위한 새로운 방법론을 제시하였다. 제안된 방법론은 '일관된 객체 기반의 그래픽 모델링', '이질적인 프로덕트 정보들의 저장', '프로덕트 모델을 활용한 정보의 생성, 통합', '확장된 프로덕트 모델의 관리' 등의 4 부분으로 나누어서 제안하였으며, 마지막으로 이들에 대한 활용 개념을 기존의 업무에서의 활용과 새롭게 보충되는 업무에서의 활용으로 나누어서 제안하였다. 6장에서는 본 논문의 전체적인 요약과 후속 연구 주제들과 이를 위한 제안을 하였다. 본 연구를 통해서 특정 응용프로그램 중심의 통합이 아닌 프로덕트 모델 중심의 설계, 시공정보 통합을 위한 새로운 통합 방법론을 제시하였으며, 본 방법론을 통해서 실제로 사용하고 있는 프로그램들을 활용하면서, 각 조직의 환경에 적합한 정보 통합을 통해 건설 생산성 향상을 기대할 수 있게 되었다.

  • PDF

UML의 부분-전체 관계에 대한 메타모델 형식화 이론의 적용: 집합연관 및 복합연관 판별 실험 (Applying Meta-model Formalization of Part-Whole Relationship to UML: Experiment on Classification of Aggregation and Composition)

  • 김태경
    • 지능정보연구
    • /
    • 제21권1호
    • /
    • pp.99-118
    • /
    • 2015
  • 정보 시스템 개발에 있어 객체지향 프로그래밍 언어가 널리 사용된다. 이와 함께 객체지향 설계를 뒷받침하는 개념적 모델링 언어에 관한 관심도 높다. 이를 배경으로 통합 모델링 언어 혹은 UML로 알려진 개념적 모델링 언어는 여러 객체 지향 프로그래밍 언어와 함께 사용되면서 사후적 표준으로 자리 잡았다. UML은 클래스를 설계의 중심에 둔다. 또한 클래스들 간의 관계를 통해 체계적인 이해를 가능하게 한다. 특히 부분에 해당하는 클래스들과 전체에 해당하는 클래스의 관계인 부분-전체 관계를 설계할 수 있는 문법 또한 UML에 포함된다. 현실 세계에 부분-전체 관계로 파악될 수 있는 여러대상들이 존재하고 비즈니스 활동에 존재하는 각종 역할들의 구조에서도 부분-전체 관계로 표현될 수 있는 대상들이 보편적으로 보인다. 따라서 UML로 클래스들 간의 부분-전체 관계를 드러내는 일은 자연스럽다. 문제는 부분-전체 관계를 파악하는 활동은 UML 2.0의 표준에 포함되었으나 실제 설계 과정에서 적극 활용하기 위한 실천적 이론화가 부족하다는 점이다. 부분-전체 관계를 집합연관과 복합연관으로 세분화한 UML 문법은 표현 양식에서 부족함은 없을지라도 어떤 대상을 부분-전체로 파악하고, 이를 어떻게 집합연관이나 복합연관으로 분류해야 할 것인지에 대한 판단이 쉽게 결여된다. 지금까지 UML의 부분-전체 관계 규명은 언어적 표현법을 활용하는 것에 치우쳤다. 이와 같은 문제에 대한 대안을 제시하기 위해 본 연구는 메타모델 형식화 이론을 기반으로 UML 사용자가 부분-전체 관계를 판단하고 이를 집합연관과 복합연관으로 분류할 수 있는 실천적 대안을 제시한다. 이를 활용한 실험의 결과 메타모델 형식화가 UML 사용자들에게 통용되어 온 언어적 구분법보다 더 나은 결과를 낳는다는 점이 밝혀졌다. 본 연구는 부분-전체의 판별과 구분에 도움을 주는 실용적인 방법을 제안하고 검증하였다는 점에서 의의가 있다.

사례기반추론과 텍스트마이닝 기법을 활용한 KTX 차량고장 지능형 조치지원시스템 연구 (An Intelligence Support System Research on KTX Rolling Stock Failure Using Case-based Reasoning and Text Mining)

  • 이형일;김종우
    • 지능정보연구
    • /
    • 제26권1호
    • /
    • pp.47-73
    • /
    • 2020
  • KTX 차량은 수많은 기계, 전기 장치 및 부품들로 구성되어 있는 하나의 시스템으로 차량의 유지보수에는 상당히 많은 전문성과 유지보수 작업자들의 경험을 필요로 한다. 차량 고장발생 시 유지보수자의 지식과 경험에 따라 문제 해결의 시간과 작업의 질적 차이가 발생하며 그에 따른 차량의 가용율이 달라진다. 일반적으로 문제해결은 고장 매뉴얼을 기반으로 하지만 경험이 많고 능숙한 전문가의 경우는 이와 더불어 개인의 노하우를 접목하여 신속하게 진단하고 조치를 취한다. 이러한 지식은 암묵지 형태로 존재하기 때문에 후임자에게 완전히 전수되기 어려우며, 이를 위해 사례기반의 철도차량 전문가시스템을 개발하여 데이터화된 지식으로 바꾸려고 하는 연구들이 있어왔다. 하지만, 간선에 가장 많이 투입되고 있는 KTX 차량에 대한 연구나 텍스트의 특징을 추출하여 유사사례를 검색하는 시스템 개발은 아직 미비하다. 따라서, 본 연구에서는 이러한 차량 유지보수 전문가들의 노하우를 통해 수행된 고장들에 대한 진단과 조치 이력을 문제 해결의 사례로 활용하여 새롭게 발생하는 고장에 대한 조치가이드를 제공하는 지능형 조치지원시스템을 제안하고자 한다. 이를 위하여, 2015년부터 2017년동안 생성된 차량고장 데이터를 수집하여 사례베이스를 구축하였고, 차원축소 기법인 비음수 행렬 인수분해(NMF), 잠재의미분석(LSA), Doc2Vec을 통해 고장의 특징을 추출하여 벡터 간의 코사인 거리를 측정하는 방식으로 유사 사례를 검색하였으며, 위의 알고리즘에 의해 제안된 조치내역들 간 성능을 비교하였다. 분석결과, 고장 내역의 키워드가 적은 경우의 유사 사례 검색과 조치 제안은 코사인 유사도를 직접 적용하는 경우에도 좋은 성능을 낸다는 것을 알 수 있었고 차원 축소 기법들의 성능 비교를 통해 문맥적 의미를 보존하는 차원 축소 방식 중 Doc2Vec을 적용하는 것이 가장 좋은 성능을 나타낸다는 것을 알 수 있었다. 텍스트 마이닝 기술은 여러 분야에서 활용을 위한 연구들이 이루어지고 있는 추세이나, 본 연구에서 활용하고자 하는 분야처럼 전문적인 용어들이 다수이고 데이터에 대한 접근이 제한적인 환경에서 이러한 텍스트 데이터를 활용한 연구는 아직 부족한 실정이다. 본 연구는 이러한 관점에서 키워드 기반의 사례 검색을 보완하고자 텍스트 마이닝 기법을 접목하여 고장의 특징을 추출하는 방식으로 사례를 검색해 조치를 제안하는 지능형 진단시스템을 제시하였다는 데에 의의가 있다. 이를 통해 현장에서 바로 사용 가능한 진단시스템을 단계적으로 개발하는데 기초자료로써 시사점을 제공할 수 있을 것으로 기대한다.