• 제목/요약/키워드: 정보검색시스템

검색결과 5,090건 처리시간 0.035초

텍스트 마이닝을 활용한 신문사에 따른 내용 및 논조 차이점 분석 (A Study on Differences of Contents and Tones of Arguments among Newspapers Using Text Mining Analysis)

  • 감미아;송민
    • 지능정보연구
    • /
    • 제18권3호
    • /
    • pp.53-77
    • /
    • 2012
  • 본 연구는 경향신문, 한겨레, 동아일보 세 개의 신문기사가 가지고 있는 내용 및 논조에 어떠한 차이가 있는지를 객관적인 데이터를 통해 제시하고자 시행되었다. 본 연구는 텍스트 마이닝 기법을 활용하여 신문기사의 키워드 단순빈도 분석과 Clustering, Classification 결과를 분석하여 제시하였으며, 경제, 문화 국제, 사회, 정치 및 사설 분야에서의 신문사 간 차이점을 분석하고자 하였다. 신문기사의 문단을 분석단위로 하여 각 신문사의 특성을 파악하였고, 키워드 네트워크로 키워드들 간의 관계를 시각화하여 신문사별 특성을 객관적으로 볼 수 있도록 제시하였다. 신문기사의 수집은 신문기사 데이터베이스 시스템인 KINDS에서 2008년부터 2012년까지 해당 주제로 주제어 검색을 하여 총 3,026개의 수집을 하였다. 수집된 신문기사들은 불용어 제거와 형태소 분석을 위해 Java로 구현된 Lucene Korean 모듈을 이용하여 자연어 처리를 하였다. 신문기사의 내용 및 논조를 파악하기 위해 경향신문, 한겨레, 동아일보가 정해진 기간 내에 일어난 특정 사건에 대해 언급하는 단어의 빈도 상위 10위를 제시하여 분석하였고, 키워드들 간 코사인 유사도를 분석하여 네트워크 지도를 만들었으며 단어들의 네트워크를 통해 Clustering 결과를 분석하였다. 신문사들마다의 논조를 확인하기 위해 Supervised Learning 기법을 활용하여 각각의 논조에 대해 분류하였으며, 마지막으로는 분류 성능 평가를 위해 정확률과 재현률, F-value를 측정하여 제시하였다. 본 연구를 통해 문화 전반, 경제 전반, 정치분야의 통합진보당 이슈에 대한 신문기사들에 전반적인 내용과 논조에 차이를 보이고 있음을 알 수 있었고, 사회분야의 4대강 사업에 대한 긍정-부정 논조에 차이가 있음을 발견할 수 있었다. 본 연구는 지금까지 연구되어왔던 한글 신문기사의 코딩 및 담화분석 방법에서 벗어나, 텍스트 마이닝 기법을 활용하여 다량의 데이터를 분석하였음에 의미가 있다. 향후 지속적인 연구를 통해 분류 성능을 보다 높인다면, 사람들이 뉴스를 접할 때 그 뉴스의 특정 논조 성향에 대해 우선적으로 파악하여 객관성을 유지한 채 정보에 접근할 수 있도록 도와주는 신뢰성 있는 툴을 만들 수 있을 것이라 기대한다.

온라인 언급이 기업 성과에 미치는 영향 분석 : 뉴스 감성분석을 통한 기업별 주가 예측 (Influence analysis of Internet buzz to corporate performance : Individual stock price prediction using sentiment analysis of online news)

  • 정지선;김동성;김종우
    • 지능정보연구
    • /
    • 제21권4호
    • /
    • pp.37-51
    • /
    • 2015
  • 인터넷 기술의 발전과 인터넷 상 데이터의 급속한 증가로 인해 데이터의 활용 목적에 적합한 분석방안 연구들이 활발히 진행되고 있다. 최근에는 텍스트 마이닝 기법의 활용에 대한 연구들이 이루어지고 있으며, 특히 문서 내 텍스트를 기반으로 문장이나 어휘의 긍정, 부정과 같은 극성 분포에 따라 의견을 스코어링(scoring)하는 감성분석과 관련된 연구들도 다수 이루어지고 있다. 이러한 연구의 연장선상에서, 본 연구는 인터넷 상의 특정 기업에 대한 뉴스 데이터를 수집하여 이들의 감성분석을 실시함으로써 주가의 등락에 대한 예측을 시도하였다. 개별 기업의 뉴스 정보는 해당 기업의 주가에 영향을 미치는 요인으로, 적절한 데이터 분석을 통해 주가 변동 예측에 유용하게 활용될 수 있을 것으로 기대된다. 따라서 본 연구에서는 개별 기업의 온라인 뉴스 데이터에 대한 감성분석을 바탕으로 개별 기업의 주가 변화 예측을 꾀하였다. 이를 위해, KOSPI200의 상위 종목들을 분석 대상으로 선정하여 국내 대표적 검색 포털 서비스인 네이버에서 약 2년간 발생된 개별 기업의 뉴스 데이터를 수집 분석하였다. 기업별 경영 활동 영역에 따라 기업 온라인 뉴스에 나타나는 어휘의 상이함을 고려하여 각 개별 기업의 어휘사전을 구축하여 분석에 활용함으로써 감성분석의 성능 향상을 도모하였다. 분석결과, 기업별 일간 주가 등락여부에 대한 예측 정확도는 상이했으며 평균적으로 약 56%의 예측률을 보였다. 산업 구분에 따른 주가 예측 정확도를 통하여 '에너지/화학', '생활소비재', '경기소비재'의 산업군이 상대적으로 높은 주가 예측 정확도를 보임을 확인하였으며, '정보기술'과 '조선/운송' 산업군은 주가 예측 정확도가 낮은 것으로 확인되었다. 본 논문은 온라인 뉴스 정보를 활용한 기업의 어휘사전 구축을 통해 개별 기업의 주가 등락 예측에 대한 분석을 수행하였으며, 향후 감성사전 구축 시 불필요한 어휘가 추가되는 문제점을 보완한 연구 수행을 통하여 주가 예측 정확도를 높이는 방안을 모색할 수 있을 것이다.

토픽모델링을 활용한 COVID-19 학술 연구 기반 연구 주제 분류에 관한 연구 (A study on the classification of research topics based on COVID-19 academic research using Topic modeling)

  • 유소연;임규건
    • 지능정보연구
    • /
    • 제28권1호
    • /
    • pp.155-174
    • /
    • 2022
  • 2020년 1월부터 2021년 10월 현재까지 COVID-19(치명적인 호흡기 증후군인 코로나바이러스-2)와 관련된 학술 연구가 500,000편 이상 발표되었다. COVID-19와 관련된 논문의 수가 급격하게 증가함에 따라 의료 전문가와 정책 담당자들이 중요한 연구를 신속하게 찾는 것에 시간적·기술적 제약이 따르고 있다. 따라서 본 연구에서는 LDA와 Word2vec 알고리즘을 사용하여 방대한 문헌의 텍스트 자료로부터 유용한 정보를 추출하는 방안을 제시한다. COVID-19와 관련된 논문에서 검색하고자 하는 키워드와 관련된 논문을 추출하고, 이를 대상으로 세부 주제를 파악하였다. 자료는 Kaggle에 있는 CORD-19 데이터 세트를 활용하였는데, COVID-19 전염병에 대응하기 위해 주요 연구 그룹과 백악관이 준비한 무료 학술 자료로서 매주 자료가 업데이트되고 있다. 연구 방법은 크게 두 가지로 나뉜다. 먼저, 47,110편의 학술 논문의 초록을 대상으로 LDA 토픽 모델링과 Word2vec 연관어 분석을 수행한 후, 도출된 토픽 중 'vaccine'과 관련된 논문 4,555편, 'treatment'와 관련된 논문 5,791편을 추출한다. 두 번째로 추출된 논문을 대상으로 LDA, PCA 차원 축소 후 t-SNE 기법을 사용하여 비슷한 주제를 가진 논문을 군집화하고 산점도로 시각화하였다. 전체 논문을 대상으로 찾을 수 없었던 숨겨진 주제를 키워드에 따라 문헌을 분류하여 토픽 모델링을 수행한 결과 세부 주제를 찾을 수 있었다. 본 연구의 목표는 대량의 문헌에서 키워드를 입력하여 특정 정보에 대한 문헌을 분류할 수 있는 방안을 제시하는 것이다. 본 연구의 목표는 의료 전문가와 정책 담당자들의 소중한 시간과 노력을 줄이고, 신속하게 정보를 얻을 수 있는 방법을 제안하는 것이다. 학술 논문의 초록에서 COVID-19와 관련된 토픽을 발견하고, COVID-19에 대한 새로운 연구 방향을 탐구하도록 도움을 주는 기초자료로 활용될 것으로 기대한다.

기간별 이슈 매핑을 통한 이슈 생명주기 분석 방법론 (Analyzing the Issue Life Cycle by Mapping Inter-Period Issues)

  • 임명수;김남규
    • 지능정보연구
    • /
    • 제20권4호
    • /
    • pp.25-41
    • /
    • 2014
  • 최근 스마트 기기를 통해 소셜미디어에 참여하는 사용자가 급격히 증가하고 있다. 이에 따라 빅데이터 분석에 대한 관심이 높아지고 있으며 최근 포털 사이트에서 검색어로 자주 입력되거나 다양한 소셜미디어에서 자주 언급되는 단어에 대한 분석을 통해 사회적 이슈를 파악하기 위한 시도가 이루어 지고 있다. 이처럼 다량의 텍스트를 통해 도출된 사회적 이슈의 기간별 추이를 비교하는 분석을 이슈 트래킹이라 한다. 하지만 기존의 이슈 트래킹은 두 가지 한계를 가지고 있다. 첫째, 전통적 방식의 이슈 트래킹은 전체 기간의 문서에 대해 일괄 토픽 분석을 실시하고 각 토픽의 기간별 분포를 파악하는 방식으로 이루어지므로, 새로운 기간의 문서가 추가되었을 때 추가된 문서에 대해서만 분석을 추가 실시하는 것이 아니라 전체 기간의 문서에 대한 분석을 다시 실시해야 한다는 실용성 측면의 한계를 갖고 있다. 둘째, 이슈는 끊임 없이 생성되고 소멸될 뿐 아니라, 때로는 하나의 이슈가 둘 이상의 이슈로 분화하고 둘 이상의 이슈가 하나로 통합되기도 한다. 즉, 이슈는 생성, 변화(병합, 분화), 그리고 소멸의 생명주기를 갖게 되는데, 전통적 이슈 트래킹은 이러한 이슈의 가변성을 다루지 않았다는 한계를 갖는다. 본 연구에서는 이러한 한계를 극복하기 위해 대상 기간 전체의 문서를 한꺼번에 분석하는 방식이 아닌 세부 기간별 문서에 대해 독립적인 분석을 수행하고 이를 통합할 수 있는 방안을 제시하였으며, 이를 통해 새로운 이슈가 생성되고 변화하며 소멸되는 전체 과정을 규명하였다. 또한 실제 인터넷 뉴스에 대해 제안 방법론을 적용함으로써, 제안 방법론의 실무 적용 가능성을 분석하였다.

인공지능(AI) 스피커에 대한 사회구성 차원의 발달과정 연구: 제품과 시기별 공진화 과정을 중심으로 (A study of Artificial Intelligence (AI) Speaker's Development Process in Terms of Social Constructivism: Focused on the Products and Periodic Co-revolution Process)

  • 차현주;권상희
    • 인터넷정보학회논문지
    • /
    • 제22권1호
    • /
    • pp.109-135
    • /
    • 2021
  • 본 연구는 전통뉴스 보도에 나타난 인공지능(AI)스피커 뉴스 텍스트 분석을 통해 인공지능(AI) 스피커 발달과정을 분류하고 시기별 제품별 특성을 파악하였다. 또한 AI 스피커 사업자 제품별 뉴스 보도와 시기별 뉴스 보도간의 상관관계를 분석하였다. 분석에 사용된 이론적 배경은 뉴스의 프레임과 토픽프레임이다. 분석방법으로는 LDA 방식을 활용한 토픽모델링(Topic Modeling)과 의미연결망분석이 사용되었으며, 추가로 'UCINET'중 QAP분석을 적용하였다. 연구방법은 내용분석 방법으로 2014년부터 2019년까지 AI 스피커 관련 2,710건의 뉴스를 1차로 수집하였고, 2차적으로 Nodexl 알고리즘을 이용하여 토픽프레임을 분석하였다. 분석 결과 첫째, AI 스피커 사업자 유형별 토픽 프레임의 경향은 4개 사업자(통신사업자, 온라인 플랫폼, OS 사업자, IT디바이스 생산업자) 특성에 따라 다르게 나타났다. 구체적으로, 온라인 플랫폼 사업자(구글, 네이버, 아마존, 카카오)와 관련한 프레임은 AI 스피커를 '검색 또는 입력 디바이스'로 사용하는 프레임의 비중이 높았다. 반면 통신 사업자(SKT, KT)는 모회사의 주력 사업인 IPTV, 통신 사업의 '보조 디바이스' 관련한 프레임이 두드러지게 나타났다. 나아가 OS 사업자(MS, 애플)는 '제품의 의인화 및 음성 서비스' 프레임이 두드러지게 보였으며, IT 디바이스 생산업자(삼성)는 '사물인터넷(IoT) 종합지능시스템'과 관련한 프레임이 두드러지게 나타났다. 둘째, AI 스피커 시기별(연도별) 토픽 프레임의 경향은 1기(2014-2016년)에는 AI 기술 중심으로 발달하는 경향을 보였고, 2기(2017-2018년)에는 AI 기술과 이용자 간의 사회적 상호 작용과 관련되어 있었으며, 3기(2019년)에는 AI 기술 중심에서 이용자 중심으로 전환되는 경향을 나타냈다. QAP 분석 결과, AI 스피커 발달에서 사업자별과 시기별 뉴스 프레임이 미디어 담론의 결정요인에 의해 사회적으로 구성되는 것을 알 수 있었다. 본연구의 함의는 AI 스피커 진화는 사업자별, 발달시기별로 모회사 기업의 특성과 이용자 간의 상호작용으로 인한 공진화 과정이 나타냄을 발견할 수 있었다. 따라서 본 연구는 AI 스피커의 향후 전망을 예측하고 그에 따른 방향성을 제시하는 데 중요한 시사점을 제공한다.

텍스트 마이닝 기법을 활용한 인공지능 기술개발 동향 분석 연구: 깃허브 상의 오픈 소스 소프트웨어 프로젝트를 대상으로 (A Study on the Development Trend of Artificial Intelligence Using Text Mining Technique: Focused on Open Source Software Projects on Github)

  • 정지선;김동성;이홍주;김종우
    • 지능정보연구
    • /
    • 제25권1호
    • /
    • pp.1-19
    • /
    • 2019
  • 제4차 산업혁명을 이끄는 주요 원동력 중 하나인 인공지능 기술은 이미지와 음성 인식 등 여러 분야에서 사람과 유사하거나 더 뛰어난 능력을 보이며, 사회 전반에 미치게 될 다양한 영향력으로 인하여 높은 주목을 받고 있다. 특히, 인공지능 기술은 의료, 금융, 제조, 서비스, 교육 등 광범위한 분야에서 활용이 가능하기 때문에, 현재의 기술 동향을 파악하고 발전 방향을 분석하기 위한 노력들 또한 활발히 이루어지고 있다. 한편, 이러한 인공지능 기술의 급속한 발전 배경에는 학습, 추론, 인식 등의 복잡한 인공지능 알고리즘을 개발할 수 있는 주요 플랫폼들이 오픈 소스로 공개되면서, 이를 활용한 기술과 서비스들의 개발이 비약적으로 증가하고 있는 것이 주요 요인 중 하나로 확인된다. 또한, 주요 글로벌 기업들이 개발한 자연어 인식, 음성 인식, 이미지 인식 기능 등의 인공지능 소프트웨어들이 오픈 소스 소프트웨어(OSS: Open Sources Software)로 무료로 공개되면서 기술확산에 크게 기여하고 있다. 이에 따라, 본 연구에서는 온라인상에서 다수의 협업을 통하여 개발이 이루어지고 있는 인공지능과 관련된 주요 오픈 소스 소프트웨어 프로젝트들을 분석하여, 인공지능 기술 개발 현황에 대한 보다 실질적인 동향을 파악하고자 한다. 이를 위하여 깃허브(Github) 상에서 2000년부터 2018년 7월까지 생성된 인공지능과 관련된 주요 프로젝트들의 목록을 검색 및 수집하였으며, 수집 된 프로젝트들의 특징과 기술 분야를 의미하는 토픽 정보들을 대상으로 텍스트 마이닝 기법을 적용하여 주요 기술들의 개발 동향을 연도별로 상세하게 확인하였다. 분석 결과, 인공지능과 관련된 오픈 소스 소프트웨어들은 2016년을 기준으로 급격하게 증가하는 추세이며, 토픽들의 관계 분석을 통하여 주요 기술 동향이 '알고리즘', '프로그래밍 언어', '응용분야', '개발 도구'의 범주로 구분하는 것이 가능함을 확인하였다. 이러한 분석 결과를 바탕으로, 향후 다양한 분야에서의 활용을 위해 개발되고 있는 인공지능 관련 기술들을 보다 상세하게 구분하여 확인하는 것이 가능할 것이며, 효과적인 발전 방향 모색과 변화 추이 분석에 활용이 가능할 것이다.

이동형 의료영상 장치를 위한 JPEG2000 영상 뷰어 개발 (Development of JPEG2000 Viewer for Mobile Image System)

  • 김새롬;정해조;강원석;이재훈;이상호;신성범;유선국;김희중
    • 한국의학물리학회지:의학물리
    • /
    • 제14권2호
    • /
    • pp.124-130
    • /
    • 2003
  • 현재, 많은 병원이 방사선과 의료영상정보를 기존의 필름형태로 판독하고, 진료하는 방식에서 PACS를 도입하여 디지털 형태로 영상을 전송, 저장, 검색, 판독하는 환경으로 변화하고 있다. 한편, PACS가 가지는 가장 큰 제한점은 휴대성의 결핍이다. 본 연구는 이동형 장치가 가지는 호스트의 이동성 및 휴대성의 장점들을 살리면서, 무선 채널 용량의 한계, 무선 링크 사용이라는 제약점들을 감안하여 의료영상을 JPEG2000 영상압축 방식으로 부호화한 후 무선 환경을 고려한 전송 패킷의 크기를 결정하고자 하였으며, 무선 통신 중 발생되는 패킷 손실에 대응하기 위한 자동 오류 수정 기능도 함께 구현하고자하였다. Window 2000 운영체계에서 의료영상을 로드하고, 데이터베이스화하며, 저장하고, 다른 네트워크와 접속, 제어가 가능한 PC급 서버를 구축하였다. 영상데이터는 무선망을 통해 전송하기 때문에 가장 높은 압축비율을 지원하면서 에너지 밀도가 높은 JPEG2000 알고리즘을 사용하여 영상을 압축하였다. 또한, 무선망 사용으로 인한 패킷 손실에 대비하여, 영상을 JPEG2000 방식으로 부호화한 후 각 블록단위로 전송하였다. PDA에서 JPEG2000 영상을 복호화 하는데 걸리는 시간은 256*256 크기의 MR 뇌영상의 경우 바로 확인할 수 있었지만, 800*790 크기의 CR 흥부 영상의 경우 약 5초 정도의 시간이 걸렸다. CDMA 1X(Code-Division Multiple Access 1st Generation) 모듈을 사용하여 영상을 전송하는 경우, 256 byte/sec정도에서는 안정된 전송 결과를 보여주었고, 1 Kbyte/sec정도의 전송의 경우 중간 중간에 패킷이 손실되는 결과를 관찰할 수 있었다. 반면 무선 랜의 경우 이보다 더 큰 패킷을 전송하더라도 문제점은 발견되지 않았다. 현재의 PACS는 유선과 무선사이의 인터페이스의 부재로 인해 유무선 연동이 되지 못하고 있다. 따라서 이동형 JPEG2000 영상 뷰어는 PACS가 가지는 문제점인 휴대성을 보완하기 위하여 개발되었다. 또한 무선망이 가지는 데이터 손실에 대하여서도 허용할 수 있는 범위에서 재전송을 가능하게 함으로서 약한 연결성을 보완하였다. 본 JPEG2000 영상 뷰어 시스템은 기존 유선상의 PACS와 이동형 장치간에 유기적인 인터페이스 역할을 하리라 기대된다.

  • PDF

유아의 소프트웨어 교육 관련 국내 최근 연구의 경향 분석 (An Analysis of Research Trends Related to Software Education for Young Children in Korea)

  • 천희영;박소연;성지현
    • 한국보육학회지
    • /
    • 제19권2호
    • /
    • pp.177-196
    • /
    • 2019
  • 본 연구는 2016년부터 3년간 발표된 유아 소프트웨어 교육 관련 국내 최근 연구들의 경향을 게재 경향과 연구방법의 측면에서 분석하는데 연구의 목적을 두었다. 분석대상은 한국학술지인용색인과 국가학술연구정보 공유 시스템에서 검색된 유아의 소프트웨어 교육 관련 연구 26편이었다. 발표된 연구의 게재 경향은 발표 연도, 발표 형식, 학문 분야의 범주에 따라 살펴보았다. 연구방법 측면에서는 연구의 주제 특성과 연구방법 유형, 그리고 연구변인의 특성을 분석하였다. 연구의 결과를 연구의 게재 경향 측면에서 살펴본 바, 2016년부터 최근 3년간 발표된 연구 편수는 연도별로 점차 증가하며, 학술지 논문 형태로 대다수가 발표된 것으로 나타났다. 전체 분석대상의 61.5%(16편)가 유아교육 및 아동학 관련 학문 분야에서 발표된 논문이었다. 연구방법 측면에서는 먼저, 연구의 주제와 연구대상 관련하여 유아 소프트웨어 교육 프로그램 개발 연구, 또는 만4세와 만5세를 대상으로 효과 검증을 한 연구가 다수를 차지하는 것으로 밝혀졌다. 연구방법으로는 실험연구와 문헌연구방법 (각 8회), 조사연구(7회)의 순으로 많이 적용된 것으로 나타났다. 연구변인의 특성으로서 많이 다루어진 측정변인은 유아의 인지적 특성 변인으로 나타났다. 연구에 적용된 프로그램의 특성과 관련하여, 첫째, 프로그래밍 도구 환경을 중심으로 분류한 결과 가장 많은 6편의 연구가 피지컬 컴퓨팅 환경의 프로그램을 사용하였으며, 연구에 사용된 프로그래밍 도구 로봇 중에서는 Albert가 가장 많이 사용된 것으로 나타났다. 프로그램의 적용 기간은 5주~48주로 차이가 있었다. 분석대상 연구들에서 컴퓨팅 사고력은 소프트웨어 교육에 의해 향상되는 문제해결 능력으로 개념화된 경우가 가장 많았으며, 그 하위요인별 개별도구로써 측정되었음을 알 수 있었다. 본 연구의 결과 유아의 소프트웨어 교육 관련 연구가 최근 증가하는 경향을 보이지만 연구 편수의 축적과 연구방법 측면에서 개선이 필요하다는 것을 확인할 수 있었다.

중·소규모 공정안전관리 사업장의 웹 전산시스템 개발 (A Development of Facility Web Program for Small and Medium-Sized PSM Workplaces)

  • 김영석;박달재
    • Korean Chemical Engineering Research
    • /
    • 제60권3호
    • /
    • pp.334-346
    • /
    • 2022
  • 중·소규모 사업장에서 중대산업사고가 발생되고 있는 원인 중 하나는 공정안전관리(PSM) 체계를 이해하고 적용하는데 관련 지식 및 정보 부족이다. 이를 해결하기 위해서는 PSM에 대한 실질적이며 지속적인 이행 수준을 확보하고 추적관리를 통해 인적오류를 제거할 수 있는 프로토콜이 뒷받침되어야 하나 그동안 이에 대한 연구가 미흡하였다. 이에 본 연구에서는 고용노동부 고시의 규정과 전국 300인 미만 중·소규모 PSM 사업장 200여 개사를 대상으로 행정처분 위반 사례를 조사·분석하였다. 이를 기반으로 설비유지관리 웹프로그램을 개발하여 중·소규모 사업장의 인적오류 제거를 통한 중대산업사고예방에 기여하고자 하였다. 본 연구를 통해 얻어진 주요 연구결과는 다음과 같다. 첫째, 프로그램 접근 편의성을 위해 스마트 기기에서 QR코드를 통해 웹에 접속하여 설비의 제원 검색 기능, 고장 사유, 사진을 확인함으로써 실시간 점검, 정비요청을 할 수 있게 하였다. 둘째, 변경 대상 파악, 위험성 평가, 작업자 교육, 가동 전 점검을 프로그램과 연계하여 작업 시작 전부터 종료까지 모든 절차를 관리자가 추적관리 가능하도록 하였다. 셋째, 작업 완료 후 개선된 사진과 함께 수리, 시간, 비용 등을 등록하여 축적된 자료를 기반으로 설비의 수명 예측과 신뢰성을 검증하게 하였다. 이러한 연구결과는 중·소규모 PSM 사업장에게 실질적이고 체계적인 운영에 도움이 될 수 있으며 향후 정부 주도로 중·소규모 PSM 사업장을 대상으로 스마트팩토리 구축 시 설비유지관리 웹프로그램을 개발하여 보급하는데 유용하게 활용되리라 판단된다.

강제동원 구술자료의 관리와 활용 -일제강점하강제동원피해진상규명위원회 소장 구술자료를 중심으로- (Management and Use of Oral History Archives on Forced Mobilization -Centering on oral history archives collected by the Truth Commission on Forced Mobilization under the Japanese Imperialism Republic of Korea-)

  • 권미현
    • 기록학연구
    • /
    • 제16호
    • /
    • pp.303-339
    • /
    • 2007
  • '일제강점하 강제동원 피해'라 함은 만주사변 이후 태평양전쟁에 이르는 시기에 일제에 의하여 강제동원 되어 군인 군속 노무자 위안부 등의 생활을 강요당한 자가 입은 생명 신체 재산 등의 피해를 말한다. 강제동원 피해 역사를 복원하기 위한 노력이 피해당사자, 유족, 시민단체, 학계 등에서 이루어져왔고, 그 결과 2004년 3일 5일 ${\ll}$일제강점하 강제동원피해 진상규명등에 관한 특별법${\gg}$ (2007년 5월 17일 일부 개정)이 제정 공포되었다. 이를 근거로 2004년 11월 10일 국무총리 소속으로 일제강점하 강제동원피해진상규명위원회(이하 강제동원위원회)가 발족하였고, 2005년 2월 1일부터 일제강점하 강제동원 피해의 진상을 규명하여 역사적 진실을 밝히는 것을 목적으로 업무를 수행하고 있다. 주요 업무는 강제동원 피해신고접수 및 피해신고조사(피해자 및 유족 심사 결정), 진상조사신청접수 및 진상조사, 진상조사 및 피해판정 불능에 관한 사항, 피해판정에 따른 호적정정, 강제동원 관련 국내외 자료수집 분석 및 보고서 작성, 유해발굴 및 수습 봉환, 사료관 및 추도공간 조성사업 등이다. 강제동원위원회는 피해조사 및 진상조사 업무를 위해 다양한 기록을 발굴 수집해 오고 있다. 여타 피해의 역사가 그러하듯이 이미 공개되었거나 새롭게 발굴되는 기록은 강제동원의 다양한 역사상을 확인하기 어려울 만큼 그 양이나 질에 면에서 부족하다. 피해의 역사에서 피해당사자의 이야기는 기록의 부재를 메우기도 하고, 기록 이상의 근거적 가치를 갖기도 한다. 강제동원위원회는 피해생존자와의 구술면담을 통해 다수의 구술자료를 생산하였고 조사업무에 활용하며 체계적인 관리방법을 토대로 관리하고 대중적인 활용까지 꾀하고 있다. 강제동원위원회의 구술자료는 생산 당시부터 철저한 기획에 의해 이루어졌고, 생산단계부터 관리와 활용의 편의성을 염두에 두고 디지털매체의 생산을 유도했다. 또한 조사업무 과정에서 생산되는 구술자료의 한계를 극복하기 위해 수차례 면담자 교육을 실시하고, 면담자로 하여금 구술당시의 상황을 면담일지로 남기도록 했다. 강제동원위원회는 소장 기록을 관리하는 별도의 기록관리시스템을 갖고 있지 않다. 디지털 아카이브는 피해 진상 관리시스템과 전자결재시스템을 통해 생산되어 관리되지 않는 생산 수집 기증 기록을 등록 검색하는 역할을 한다. 구술자료는 디지털 아카이브에 등록이 되어, 실물과 중복 보존되고 있다. 구술자료는 등록과 동시에 분류, 기술행위가 이루어지고 구술자료의 관리 아이디인 등록번호, 분류번호, 비치번호 등을 부여받게 된다. 강제동원위원회는 구술자료의 적극적인 활용을 위하여 구술기록집의 발간을 지속적으로 해오고 있고, 영상물 등의 제작을 계획하고 있다. 강제동원위원회의 구술자료는 정부차원의 조사 업무 과정에서 생산된 것이라는 한계, 예산부족이나 기록관리시스템 등의 부재 등을 넘어서 한시조직으로서 가능한 적극적인 방법으로 생산 관리 활용되고 있다. 축적된 구술자료는 향후 특별법에 규정되어 있는 대로 사료관 등이 건립된다면 대중 이용자들을 위해 더 체계적으로 관리 활용될 것이다.