• 제목/요약/키워드: Service User

검색결과 6,576건 처리시간 0.035초

대화식 데이터 마이닝 기법을 활용한 자동차 보험사의 인입 콜량 예측 사례 (A Case Study on Forecasting Inbound Calls of Motor Insurance Company Using Interactive Data Mining Technique)

  • 백웅;김남규
    • 지능정보연구
    • /
    • 제16권3호
    • /
    • pp.99-120
    • /
    • 2010
  • 최근 고객들의 비대면 접점 서비스 이용도가 높아짐에 따라, 비대면 채널은 다양한 데이터의 분석을 통해 고객 만족도를 향상시킬 수 있는 유용한 창구로 인식되고 있다. 이러한 비대면 채널의 대표적 영역으로 콜센터를 들 수 있으며, 콜센터 운영에서 고객 만족도에 가장 큰 영향을 미치는 요소는 상담 인력의 규모인 것으로 알려져 있다. 즉, 일정수준 이상의 고객 만족도를 유지하기 위해서는 충분한 상담 인력을 확보하는 것이 관건이지만, 불필요하게 많은 인력을 확보하는 것은 인건비 측면에서 비용의 낭비를 초래할 수 있다. 따라서 부족하지도 않고 넘치지도 않을 정도의 적정 인력을 산출하는 능력은 콜센터 운영의 핵심 경쟁력으로 인식되고 있으며, 최근 콜센터에서는 적정 인력의 규모를 예측하기 위해 WFM(Work Force Management) 업무 전담 부서를 설치하고 콜량을 정확하게 예측하기 위한 노력을 기울이고 있다. 콜량 예측을 위해 현업에서 주로 사용되는 방법은 담당자의 직관에 의존하는 방법으로, 일정기간의 콜량 평균을 담당자가 주관적 판단에 의해 보정함으로써 이루어진다. 하지만 이러한 방식은 담당자의 주관적 성향에 크게 좌우된다는 한계를 갖고 있어서, 최근에는 다양한 예측 모형을 시스템화한 WFMS(Workforce Management System) 패키지가 널리 활용되고 있다. 하지만 이 시스템은 초기 도입 시 매우 고가의 구축비용이 발생하며, 신규 요인 발굴 시 이를 즉각적으로 시스템에 반영하기 어렵다는 한계점을 갖고 있다. 이를 극복하기 위해 본 연구에서는 데이터 마이닝의 대화식 의사결정나무 기법을 이용함으로써, 객관적이면서도 업무 배경 지식을 충분히 활용할 수 있는 예측 모형을 수립하고자 한다. 또한, 본 연구에서 수립한 모형의 정확성 평가를 위해, 국내 최대 규모의 한 자동차 보험사 콜센터의 4년 8개월 간의 실 데이터를 사용한 실험을 수행하고 그 결과를 제시하였다. 실험에서는 기존의 WFMS와 본 연구에서 제안하는 두 가지 모형인 대화식 의사결정나무 기반의 예측 모형, 일반 의사결정나무 기반의 예측 모형의 세 가지 모형에 대해, 다양한 오차 허용범위 하에서의 사고콜 및 고장콜에 대한 예측 적중률을 평가하였다.

역사기록물(Archives)의 항구적인 보존화 이용 : 보존전략과 디지털정보화 (Permanent Preservation and Use of Historical Archives : Preservation Issues Digitization of Historical Collection)

  • 이상민
    • 기록학연구
    • /
    • 제1호
    • /
    • pp.23-76
    • /
    • 2000
  • In this paper, I examined what have been researched and determined about preservation strategy and selection of preservation media in the western archival community. Archivists have primarily been concerned with 'preservation' and 'use' of archival materials worth of being preserved permanently. In the new information era, preservation and use of archival materials were faced with new challenge. Life expectancy of paper records was shortened due to acidification and brittleness of the modem papers. Also emergence of information technology affects the traditional way of preservation and use of archival materials. User expectations are becoming so high technology-oriented and so complicated as to make archivists act like information managers using computer technology rather than traditional archival handicraft. Preservation strategy plays an important role in archival management as well as information management. For a cost-effective management of archives and archival institutions, preservation strategy is a must. The preservation strategy encompasses all aspects of archival preservation process and practices, from selection of archives, appraisal, inventorying, arrangement, description, conservation, microfilming or digitization, archival buildings, and access service. Those archival functions should be considered in their relations to each other to ensure proper preservation of archival materials. In the integrated preservation strategy, 'preservation' and 'use' should be combined and fulfilled without sacrificing the other. Preservation strategy planning is essential to determine the policies of archives to preserve their holdings safe and provide people with a maximum access in most effective ways. Preservation microfilming is to ensure permanent preservation of information held in important archival materials. To do this, a detailed standardization has been developed to guarantee the permanence of microfilm as well as its product quality. Silver gelatin film can last up to 500 years in the optimum storage environment and the most viable option for permanent preservation media. ISO and ANIS developed such standards for the quality of microfilms and microfilming technology. Preservation microfilming guidelines was also developed to ensure effective archival management and picture quality of microfilms. It is essential to assess the need of preservation microfilming. Limit in resources always put a restraint on preservation management. Appraisal (and selection) of what to be preserved was the most important part of preservation microfilming. In addition, microfilms with standard quality can be scanned to produce quality digital images for instant use through internet. As information technology develops, archivists began to utilize information technology to make preservation easier and more economical, and to promote use of archival materials through computer communication network. Digitization was introduced to provide easy and universal access to unique archives, and its large capacity of preserving archival data seems very promising. However, digitization, i.e., transferring images of records to electronic codes, still, needs to be standardized. Digitized data are electronic records, and st present electronic records are very unstable and not to be preserved permanently. Digital media including optical disks materials have not been proved as reliable media for permanent preservation. Due to their chemical coating and physical character using light, they are not stable and can be preserved at best 100 years in the optimum storage environment. Most CD-R can last only 20 years. Furthermore, obsolescence of hardware and software makes hard to reproduce digital images made from earlier versions. Even if when reformatting is possible, the cost of refreshing or upgrading of digital images is very expensive and the very process has to be done at least every five to ten years. No standard for this obsolescence of hardware and software has come into being yet. In short, digital permanence is not a fact, but remains to be uncertain possibility. Archivists must consider in their preservation planning both risk of introducing new technology and promising possibility of new technology at the same time. In planning digitization of historical materials, archivists should incorporate planning for maintaining digitized images and reformatting them in the coming generations of new applications. Without the comprehensive planning, future use of the expensive digital images will become unavailable. And that is a loss of information, and a final failure of both 'preservation' and 'use' of archival materials. As peter Adelstein said, it is wise to be conservative when considerations of conservations are involved.

우리나라 가정방문간호의 현황과 향후 과제 (Current State and the Future Tasks of Home Visit Nursing Care in South Korea)

  • 박은옥
    • 농촌의학ㆍ지역보건
    • /
    • 제44권1호
    • /
    • pp.28-38
    • /
    • 2019
  • 본 연구에서는 우리나라 보건소 방문건강관리사업과 노인장기요양보험의 방문간호, 의료기관의 가정간호사업 등 가정방문간호사업 현황을 살펴보고, 향후 발전과정을 모색하고자 수행되었다. 본 연구를 위하여 각 가정방문간호사업의 관련 법령, 통계자료, 지침과 안내서, 연구논문과 학술대회 자료집 등을 검색하여 관련 문헌을 고찰하였다. 연구결과 보건소 방문건강관리사업은 지역보건법에 근거하여 주로 취약계층을 대상으로 간호사에게 의해 비용부담 없이 제공되고 있으며, 2017년 12월을 기준으로 1,261,208명 등록 관리되는 것으로 나타났다. 보건소 방문건강관리사업 등록 대상자는 흡연율, 걷기 실천율, 혈압조절율, 혈당조절률 등이 향상되는 것으로 나타나, 건강행위와 질병관리 측면에서 긍정적인 효과가 있고, 비용-편익이 있다고 보고되었다. 노인장기요양보험에서의 방문간호는 노인장기요양보험법에 근거하여 간호사 또는 간호조무사에 의해 재가장기요양기관에서 방문간호를 제공하고 있으며, 시간당 정해진 수가에 따라 비용을 받고 있는데, 2017년에 전체 요양급여비의 0.2%만이 방문간호로 이용하는 것으로 나타났다. 재가장기요양보험 방문간호 이용자는 비이용자에 비해 의료비도 더 적게 쓰고, 입원일도 적다고 보고되었다. 의료기관 가정간호는 의료법에 근거하여 2명 이상의 가정간호사(가정전문간호사)를 고용한 의료기관에서 의사의 처방 하에 가정간호서비스를 제공하는데, 2017년 460명의 가정간호사가 가정간호서비스를 제공하고, 전체 의료비의 0.038%가 가정간호비용으로 지불된 것으로 나타났다. 우리나라 가정방문간호 유형은 관련법이나 인력, 사업 대상이 다르지만, 서비스 이용자의 건강관리에 효과가 있고, 비용-편익이 상당히 높은 것으로 나타났다. 우리나라 가정방문간호를 발전과 활성화를 위해 세 개 유형의 가정방문간호 서비스가 통합적으로 제공될 수 있는 방안을 모색하고, 근로 조건의 개선, 가정방문간호서비스 제공인력기준이나 방문간호수가 체계의 개선과 같은 법령의 개정 등을 고려할 필요가 있다고 본다.

공개 소프트웨어를 이용한 기록시스템 구축가능성 연구 ICA AtoM을 중심으로 (A Study on Usability of Open Source Software for Developing Records System : A Case of ICA AtoM)

  • 이보람;황진현;박민영;김형희;최동운;최윤진;임진희
    • 기록학연구
    • /
    • 제39호
    • /
    • pp.193-228
    • /
    • 2014
  • 최근 우리나라는 공공의 기록관리 뿐만 아니라 크고 작은 민간 아카이브에 대한 관심이 높아지고 있다. 이러한 흐름에 따라 설립된 민간 아카이브는 설립 및 관리 주체가 상이할 뿐만 아니라 목적, 형태, 기록의 유형 등이 다양하고, 예산과 인력의 부족, 전문적인 기록관리 담당자가 부재하기 때문에 체계적으로 기록을 관리하기는 쉽지 않다. 시스템에 대한 요구는 계속해서 증대되고 있으나, 이를 해결할 수 있는 전문인력과 예산의 부족으로 난항을 겪고 있다. 이에 민간 아카이브의 시스템에 대한 부담감의 돌파구로서 공개 소프트웨어 기록시스템이 가지는 의미와 동향을 소개하고, AtoM 기능을 상세하게 살펴보았다. 공개 소프트웨어인 AtoM은, 웹 기반의 시스템으로서 웹 브라우저를 통해 접속하여 사용하기 때문에 비교적 사용법이 간편하고 웹 서비스 또한 데이터베이스 서버에 요청하는 방식을 통해 가능하다. 무료로 이용가능하다는 장점을 비롯하여 특정 운영체제나 애플리케이션에 의해 제약을 받지 않고 설치와 운영이 편리하며 호환성, 확장가능성 등이 높아 예산과 인력의 부족을 겪고 있는 민간 아카이브에서 유용하게 사용될 수 있을 것이다. 데이터 관리의 측면에서도 공유와 검색, 활용 등에 대한 상호운용성이 뛰어나기 때문에 향후 민간 아카이브 및 기관 간의 네트워크를 통한 기록물 활용에도 유리하게 작용할 수 있을 것으로 보인다. 추가로, Omeka와의 연계를 통한 전시서비스 기능 확장, Archivematica를 통한 장기보존 등 많은 논의가 필요하다. 그간 공공중심으로 이루어지던 기록관리가 민간으로 그 저변이 확대되어 균형을 이루게 될 수 있는 초석으로 공개 소프트웨어로서의 기록시스템이 역할을 할 수 있을 것으로 기대한다.

지상파 UHD 콘텐츠 전송 스케줄러 설계 및 구현 (Design and Implementation of Transmission Scheduler for Terrestrial UHD Contents)

  • 백종호;서민재;유경아
    • 방송공학회논문지
    • /
    • 제24권1호
    • /
    • pp.118-131
    • /
    • 2019
  • 대용량의 8K UHD(Ultra High Definition) 콘텐츠를 지상파 방송으로 제공하기 위해서는 현 지상파 방송 시스템으로는 제한된 대역폭 등 여러 문제점이 있다. 이러한 문제점을 해결하기 위해 UHD 콘텐츠 전송 기술이 연구되었고, 그 중 하나로 지상파 방송망과 통신망을 이용한 8K UHD 방송 시스템이 제안되었다. 해당 기술은 8K UHD 콘텐츠를 영역 분할한 후 계층 분리를 통해 이종망으로 전송하여 지상파 방송망의 제한된 대역폭 문제를 해결하고자 하였다. 지상파 방송망을 통해 FHD(Full High Definition)에 해당하는 기본 계층과 4K UHD를 위한 부가 향상 계층 데이터를 전송하고, 통신망으로 8K UHD를 위한 부가 향상 계층 데이터를 전송한다. 이러한 방식으로 8K 콘텐츠를 제공할 경우, 지상파로는 최대 4K UHD 방송을 수신 할 수 있고 통신망을 추가로 이용할 경우 8K UHD까지 수신가능하다. 그러나 현재 국내 지상파 UHD 방송의 할당된 비트율 내에서 4K UHD 콘텐츠를 전송하기 위해서는 압축율을 높여 전송하는 상황도 존재하여 일정 수준의 화질열화는 필연적으로 발생한다. 그럼에도 UHD 콘텐츠의 특성상, 화질은어떤 요소보다 최우선적으로 고려되어야 하므로 제한된 비트율 내에서도 화질을 최대한 보장할 수 있어야 한다. 이를 위해서는 방송 시스템 내의 콘텐츠 생성기의 패킷 스케줄링이 필요하다. 콘텐츠 생성기는 방송망과 통신망을 이용한 8K UHD 방송 시스템내에서 인코딩된 미디어 데이터들을 패킷화하고 다중화기로 송출하는 기능을 수행한다. 다중화기는 콘텐츠 생성기로부터 전달받은 패킷 순서대로 송출하기 때문에 콘텐츠 생성기에서 다중화기로 전송하는 과정의 전송 시간과 전송률을 일정하고 정확하게 하는 것이 매우 중요하다. 따라서 본 논문에서는 일정 수준의 UHD 콘텐츠의 화질을 보장할 수 있도록 콘텐츠 생성기와 다중화기 간의 데이터 전송량 가변 전송 스케줄러를 제안한다. 이를 통해 UHD 방송 콘텐츠 종류에 관계없이 일정 수준의 화질을 보장하면서도 UHD 서비스의 끊김이나 지연을 최소화하여 사용자의 QoS(Quality of Service)를 향상시키고자 한다.

개인형 이동장치의 안전 주요 문제점 및 개선방안 연구 (A Study on Major Safety Problems and Improvement Measures of Personal Mobility)

  • 강승식;강성경
    • 한국재난정보학회 논문집
    • /
    • 제18권1호
    • /
    • pp.202-217
    • /
    • 2022
  • 연구목적: 최근 개인형 이동장치(PM : Personal Mobility) 이용이 지속적으로 증가하면서 사고 또한 매년 폭발적으로 급증하고 있다. 이에 따라 PM 이용에 대한 안전 요구가 강화되고 있으나 여전히 안전한 환경을 위한 법/제도, 인프라, 관리체계 등은 부족한 실정이다. 따라서 본 연구에서는 PM 관련 선행연구 검토를 토대로 주요 문제점과 개선방안을 종합적으로 모색하고, 델파이조사를 통해 개선방안의 중요성에 따른 우선순위를 제시한다. 연구방법: 연구방법은 크게 문헌연구와 전문가 설문조사(델파이조사)로 구성된다. 기존의 선행연구와 개선사례(지방자치단체, 정부부처, 업체 등)를 검토하여 문제점, 개선사항을 도출하고 키워드를 기반으로 문제점/개선사항 분류표를 작성한다. 분류 내용을 토대로 전문가 설문조사를 실시하여 우선순위 개선방안을 도출한다. 연구결과: PM 관련 문제점은 인적요인과 관련하여 '교통법규 미준수, 지식 부족, 조작 미숙, 안전의식 부재'가, 물리적요인과 관련하여 '기기 특성, 도로-주행 가능 공간, 도로시설물, 주차시설'이, 관리적요인으로 '관리/감독, 제품관리, 이용자관리, 교육/훈련'이, 그 외 이 모든 요인들과 관련한 법률적요인을 '법률 부재/미흡, 혼선/중복, 실효성 저하' 측면으로 나눠볼 수 있었다. 이와 관련한 개선과제로 'PM 교육·홍보, 주차·반납, 도로개선, PM 등록·관리, 보험, 안전기준, 통행기준, PM 기기안전, PM 부대시설, 단속/관리, 전담조직, 서비스제공업체, 관리체계, 이와 관련한 법/제도 개선'의 14개 핵심 부문에 대해 42개 세부과제를 도출하였다. 세부 과제에 대한 중요도 평가결과 비용, 시간, 효과, 시급성, 실현가능성 평가항목에 대해 평균이 종합적으로 높은 과제는 '단속/계도활동 강화, 교육홍보/캠페인, 무단방치 PM관리, 통행규정 명확화'로 나타났다. 결론: PM 시장은 공유 서비스를 기반으로 점차 시장 규모가 커지고 있으며, 산업 활성화와 더불어 PM 이용의 안전환경이 보장되어야 한다. 이러한 측면에서 본 연구는 PM 관련 주요 문제점, 개선방안을 종합적인 관점에서 모색하고 우선적으로 필요한 개선대책의 순위를 알아본데 있어 그 의미가 있으며 향후 정책수립 자료의 기초가 될 수 있다는 점에서 그 가치가 있다. 향후에는 실질적인 정책 적용을 위해 개선 핵심 분야별로 심층적인 자료 보완이 필요할 것이다.

음악과 플레이리스트의 메타데이터를 활용한 하이브리드 음악 추천 시스템에 관한 연구 (Research on hybrid music recommendation system using metadata of music tracks and playlists)

  • 이현태;임규건
    • 지능정보연구
    • /
    • 제29권3호
    • /
    • pp.145-165
    • /
    • 2023
  • 추천 시스템은 인터넷의 발달로 급격하게 증가하는 정보의 양으로 인해 생긴 정보 선택의 어려움을 소비자에게 덜어주고 각 개인의 취향에 맞는 정보를 효율적으로 보여주는 중요한 역할을 한다. 특히, E-commerce와 OTT 기업은 상품과 콘텐츠 양이 급격하게 증가하면서 추천 시스템의 도움 없이는 인기 있는 상품만 소비되는 현상을 극복하지 못한다. 이러한 현상을 극복하고 고객 개인 취향에 맞는 정보 혹은 콘텐츠를 제공해 고객의 소비를 유도하기 위해 추천 시스템의 연구가 활발히 진행되고 있다. 일반적으로 유저(user)의 과거 행동 이력을 활용한 협업 필터링이 유저가 선호한 콘텐츠의 정보를 활용하는 콘텐츠 기반 필터링에 비해 높은 성능을 보여준다. 하지만 협업 필터링은 과거 행동 데이터가 부족한 유저에 대해서는 추천의 성능이 낮아지는 콜드 스타트(Cold Start) 문제를 겪게 된다. 본 논문에서는 카카오 아레나 경진대회에서 주어진 음악 스트리밍 서비스 멜론의 플레이리스트 데이터를 기반으로 앞에서 언급한 콜드 스타트 문제를 해결할 수 있는 하이브리드 음악 추천 시스템을 제시했다. 본 연구에서는 플레이리스트에 수록된 곡 목록과 각 음악과 플레이리스트의 메타데이터를 활용해 절반 혹은 전부 가려진 플레이리스트의 다른 수록 곡을 예측하는 것을 목표로 하였다. 이를 위해 플레이리스트 안에 곡이 있는 경우와 아예 곡이 없는 경우를 나눠서 추천을 진행하였다. 플레이리스트 안에 곡이 있는 경우에는 해당 플레이리스트의 곡 목록과 각 곡의 메타데이터를 활용하기 위해 LightFM을 활용하였다. 그 다음에 Item2Vec을 활용해 플레이리스트에 있는 수록 곡과 태그 및 제목의 임베딩 벡터를 생성하고 이를 추천에 활용하였다. 최종적으로 LightFM과 Item2Vec 모델의 앙상블을 통해 최종 추천 결과를 생성하였다. 플레이리스트 안에 곡이 없고 태그 혹은 제목만이 존재할 경우에는 플레이리스트의 메타데이터인 태그와 제목을 FastText를 활용해 사전 학습을 시켜 생성된 플레이리스트 벡터를 기반으로 플레이리스트 간의 유사도를 활용하여 추천을 진행하였다. 이렇게 추천한 결과, 기존 Matrix Factorization(MF)에서 해결하지 못한 콜드 스타트 문제를 해결할 수 있었을 뿐만 아니라 곡과 플레이리스트의 메타데이터를 활용해 기존 MF 모델인 ALS와 BPR 그리고 Word2Vec 기반으로 추천해 주는 Item2Vec 기술보다 높은 추천 성능을 낼 수 있었다. 또한, LightFM을 토대로 다양한 곡의 메타데이터를 실험한 결과, 여러 메타데이터 중에서 아티스트 정보를 단독으로 활용한 LightFM 모델이 다른 메타데이터를 활용한 LightFM 모델들과 비교해 가장 높은 성능을 보여준다는 것을 확인할 수 있었다.

BERTopic을 활용한 인간-로봇 상호작용 동향 연구 (A Study on Human-Robot Interaction Trends Using BERTopic)

  • 김정훈;곽기영
    • 지능정보연구
    • /
    • 제29권3호
    • /
    • pp.185-209
    • /
    • 2023
  • 4차 산업혁명의 도래와 함께 다양한 기술이 주목을 받고 있다. 4차 산업혁명과 관련된 기술로는 IoT(Internet of Things), 빅데이터, 인공지능, VR(Virtual Reality), 3D 프린터, 로봇공학 등이 있으며 이러한 기술은 종종 융합된다. 특히 로봇 분야는 빅데이터, 인공지능, VR, 디지털 트윈과 같은 기술과 결합할 것으로 기대된다. 이에 따라 로봇을 활용한 연구가 다수 진행되고 있으며 유통, 공항, 호텔, 레스토랑, 교통 분야 등에 적용되고 있다. 이러한 상황에서 인간-로봇 상호작용에 대한 연구가 주목을 받고 있지만 아직 만족할 만한 수준에는 이르지 못하고 있다. 하지만 완벽한 의사소통이 가능한 로봇에 대한 연구가 꾸준히 이루어지고 있고 이는 인간의 감정노동을 대신할 수 있을 것으로 기대된다. 따라서 현재의 인간-로봇 상호작용 기술을 비즈니스에 적용할 수 있는지에 대한 논의가 필요하다. 이를 위해 본 연구는 첫째, 인간로봇 상호작용 기술의 동향을 살펴본다. 둘째, LDA(Latent Dirichlet Allocation) 토픽모델링과 BERTopic 토픽모델링 방법을 비교한다. 연구 결과, 1992년~2002년 간의 연구에서는 인간-로봇 상호작용에 대한 개념과 기초적인 상호작용에 대해 논의되고 있었다. 2003년~2012년에는 사회적 표현에 대한 연구가 많이 진행되었으며 얼굴검출, 인식 등과 같이 판단과 관련된 연구도 수행되었다. 2013년~2022년에는 노인 간호, 교육, 자폐 치료와 같은 서비스 토픽들이 등장하였으며, 사회적 표현에 대한 연구가 지속되었다. 그러나 아직까지 비즈니스에 적용할 수 있는 수준에는 이르지 못한 것으로 보인다. 그리고 LDA토픽모델링과 BERTopic 토픽모델링 방법을 비교한 결과 LDA에 비해 BERTopic이 더 우수한 방법임을 확인하였다.

국내 지상파 방송사의 아카이브 개방·공유 사업과 아카이브 이용자 연구 KBS 5.18 아카이브 시민공유 프로젝트 <5월이야기> 공모전 사례를 중심으로 (Research on Archive Opening and Sharing Projects of Korean Terrestrial Broadcasters and External Users of Shared Archives : Focusing on the Case of the 5.18 Footage Video Sharing Project 〈May Story(Owol-Iyagi)〉 Contest Organized by KBS)

  • 최효진
    • 기록학연구
    • /
    • 제78호
    • /
    • pp.197-249
    • /
    • 2023
  • 본 논문에서는 최근 지상파 방송사의 아카이브 개방·공유 사업이 활발해짐에 따라 방송사 외부 이용자들의 방송·영상아카이브 콘텐츠 수요를 연구하였다. 방송사가 개방한 영상자료를 활용해 2차 저작물을 제작하는 과정에서 이용자가 영상자료를 선택하는 기준, 편집에 활용되는 과정 등을 연구하였다. 이를 위해 2022년 KBS가 자사 5.18영상자료를 공개하고 이를 활용해 시청자들에게 새로운 콘텐츠를 제작하게 했던 '5.18 아카이브 시민공유 프로젝트 5월이야기' 공모전을 사례로 살펴 보았다. 해당 공모전에서 우수작으로 선정된 작품을 분석하고 각 작품을 제작한 수상자들과 심층인터뷰를 진행했다. 그 결과 다음과 같은 점을 확인할 수 있었다. 공모전 출품작 중에는 직·간접적으로 5.18 민주화운동을 경험한 내용을 다루면서 해당 역사적 사건이 개인과 현재 우리 사회에 미치는 영향에 주목한 주제를 구성한 작품이 많았다. 방송사가 소장자료 일부를 일반에 공개한다는 사실만으로도 방송사 외부 이용자들에게는 새로운 콘텐츠를 창작해보고자 하는 제작동기를 갖게 하고, 새로운 주제를 구상할 수 있게 함을 알 수 있었다. 또한 이 연구에서는 방송사 영상자료가 2차 저작물에서 활용되는 방식을 살펴보았다. 영상자료를 매개로 하여 역사적 사건을 공유하거나, 영상자료를 증거 또는 비유로서 제시하는 방식을 확인했다. 방송사가 영상자료를 제공하는 데 있어서 5.18 민주화운동 등과 같은 공공성 있는 영상자료가 더 다양하게 개방되어야 한다는 점, 선별된 영상을 공개하기에 앞서 저작권 정보 등을 포함한 메타데이터 정리, 실제 편집에 활용 가능한 고화질·고음질 영상 확보, 이용자 편의성을 고려한 스트리밍 또는 다운로드 기능 강화 등이 필요하다는 점을 확인했다. 이를 통해 향후 지상파 방송사의 영상자료 개방·공유사업의 방향을 모색하고 방송사의 아카이브 사업이 영상자료를 매개로 한 지역·세대·계층 간 사회통합 강화 등 공적 책무를 이행하는 대안이 될 수 있음을 확인했다.

  • PDF

Hierarchical Attention Network를 이용한 복합 장애 발생 예측 시스템 개발 (Development of a complex failure prediction system using Hierarchical Attention Network)

  • 박영찬;안상준;김민태;김우주
    • 지능정보연구
    • /
    • 제26권4호
    • /
    • pp.127-148
    • /
    • 2020
  • 데이터 센터는 컴퓨터 시스템과 관련 구성요소를 수용하기 위한 물리적 환경시설로, 빅데이터, 인공지능 스마트 공장, 웨어러블, 스마트 홈 등 차세대 핵심 산업의 필수 기반기술이다. 특히, 클라우드 컴퓨팅의 성장으로 데이터 센터 인프라의 비례적 확장은 불가피하다. 이러한 데이터 센터 설비의 상태를 모니터링하는 것은 시스템을 유지, 관리하고 장애를 예방하기 위한 방법이다. 설비를 구성하는 일부 요소에 장애가 발생하는 경우 해당 장비뿐 아니라 연결된 다른 장비에도 영향을 미칠 수 있으며, 막대한 손해를 초래할 수 있다. 특히, IT 시설은 상호의존성에 의해 불규칙하고 원인을 알기 어렵다. 데이터 센터 내 장애를 예측하는 선행연구에서는, 장치들이 혼재된 상황임을 가정하지 않고 단일 서버를 단일 상태로 보고 장애를 예측했다. 이에 본 연구에서는, 서버 내부에서 발생하는 장애(Outage A)와 서버 외부에서 발생하는 장애(Outage B)로 데이터 센터 장애를 구분하고, 서버 내에서 발생하는 복합적인 장애 분석에 중점을 두었다. 서버 외부 장애는 전력, 냉각, 사용자 실수 등인데, 이와 같은 장애는 데이터 센터 설비 구축 초기 단계에서 예방이 가능했기 때문에 다양한 솔루션이 개발되고 있는 상황이다. 반면 서버 내 발생하는 장애는 원인 규명이 어려워 아직까지 적절한 예방이 이뤄지지 못하고 있다. 특히 서버 장애가 단일적으로 발생하지 않고, 다른 서버 장애의 원인이 되기도 하고, 다른 서버부터 장애의 원인이 되는 무언가를 받기도 하는 이유다. 즉, 기존 연구들은 서버들 간 영향을 주지 않는 단일 서버인 상태로 가정하고 장애를 분석했다면, 본 연구에서는 서버들 간 영향을 준다고 가정하고 장애 발생 상태를 분석했다. 데이터 센터 내 복합 장애 상황을 정의하기 위해, 데이터 센터 내 존재하는 각 장비별로 장애가 발생한 장애 이력 데이터를 활용했다. 본 연구에서 고려되는 장애는 Network Node Down, Server Down, Windows Activation Services Down, Database Management System Service Down으로 크게 4가지이다. 각 장비별로 발생되는 장애들을 시간 순으로 정렬하고, 특정 장비에서 장애가 발생하였을 때, 발생 시점으로부터 5분 내 특정 장비에서 장애가 발생하였다면 이를 동시에 장애가 발생하였다고 정의하였다. 이렇게 동시에 장애가 발생한 장비들에 대해서 Sequence를 구성한 후, 구성한 Sequence 내에서 동시에 자주 발생하는 장비 5개를 선정하였고, 선정된 장비들이 동시에 장애가 발생된 경우를 시각화를 통해 확인하였다. 장애 분석을 위해 수집된 서버 리소스 정보는 시계열 단위이며 흐름성을 가진다는 점에서 이전 상태를 통해 다음 상태를 예측할 수 있는 딥러닝 알고리즘인 LSTM(Long Short-term Memory)을 사용했다. 또한 단일 서버와 달리 복합장애는 서버별로 장애 발생에 끼치는 수준이 다르다는 점을 감안하여 Hierarchical Attention Network 딥러닝 모델 구조를 활용했다. 본 알고리즘은 장애에 끼치는 영향이 클 수록 해당 서버에 가중치를 주어 예측 정확도를 높이는 방법이다. 연구는 장애유형을 정의하고 분석 대상을 선정하는 것으로 시작하여, 첫 번째 실험에서는 동일한 수집 데이터에 대해 단일 서버 상태와 복합 서버 상태로 가정하고 비교분석하였다. 두 번째 실험은 서버의 임계치를 각각 최적화 하여 복합 서버 상태일 때의 예측 정확도를 향상시켰다. 단일 서버와 다중 서버로 각각 가정한 첫 번째 실험에서 단일 서버로 가정한 경우 실제 장애가 발생했음에도 불구하고 5개 서버 중 3개의 서버에서는 장애가 발생하지 않은것으로 예측했다. 그러나 다중 서버로 가정했을때에는 5개 서버 모두 장애가 발생한 것으로 예측했다. 실험 결과 서버 간 영향이 있을 것이라고 추측한 가설이 입증된 것이다. 연구결과 단일 서버로 가정했을 때 보다 다중 서버로 가정했을 때 예측 성능이 우수함을 확인했다. 특히 서버별 영향이 다를것으로 가정하고 Hierarchical Attention Network 알고리즘을 적용한 것이 분석 효과를 향상시키는 역할을 했다. 또한 각 서버마다 다른 임계치를 적용함으로써 예측 정확도를 향상시킬 수 있었다. 본 연구는 원인 규명이 어려운 장애를 과거 데이터를 통해 예측 가능하게 함을 보였고, 데이터 센터의 서버 내에서 발생하는 장애를 예측할 수 있는 모델을 제시했다. 본 연구결과를 활용하여 장애 발생을 사전에 방지할 수 있을 것으로 기대된다.