• 제목/요약/키워드: news data

검색결과 894건 처리시간 0.027초

다중 스케일 시간 확장 합성곱 신경망을 이용한 방송 콘텐츠에서의 음성 검출 (Speech detection from broadcast contents using multi-scale time-dilated convolutional neural networks)

  • 장병용;권오욱
    • 말소리와 음성과학
    • /
    • 제11권4호
    • /
    • pp.89-96
    • /
    • 2019
  • 본 논문에서는 방송 콘텐츠에서 음성 구간 검출을 효과적으로 할 수 있는 심층 학습 모델 구조를 제안한다. 또한 특징 벡터의 시간적 변화를 학습하기 위한 다중 스케일 시간 확장 합성곱 층을 제안한다. 본 논문에서 제안한 모델의 성능을 검증하기 위하여 여러 개의 비교 모델을 구현하고, 프레임 단위의 F-score, precision, recall을 계산하여 보여 준다. 제안 모델과 비교 모델은 모두 같은 학습 데이터로 학습되었으며, 모든 모델은 다양한 장르(드라마, 뉴스, 다큐멘터리 등)로 구성되어 있는 한국 방송데이터 32시간을 이용하여 모델을 학습되었다. 제안 모델은 한국 방송데이터에서 F-score 91.7%로 가장 좋은 성능을 보여주었다. 또한 영국과 스페인 방송 데이터에서도 F-score 87.9%와 92.6%로 가장 높은 성능을 보여주었다. 결과적으로 본 논문의 제안 모델은 특징 벡터의 시간적 변화를 학습하여 음성 구간 검출 성능 향상에 기여할 수 있었다.

An Efficient Damage Information Extraction from Government Disaster Reports

  • Shin, Sungho;Hong, Seungkyun;Song, Sa-Kwang
    • 인터넷정보학회논문지
    • /
    • 제18권6호
    • /
    • pp.55-63
    • /
    • 2017
  • One of the purposes of Information Technology (IT) is to support human response to natural and social problems such as natural disasters and spread of disease, and to improve the quality of human life. Recent climate change has happened worldwide, natural disasters threaten the quality of life, and human safety is no longer guaranteed. IT must be able to support tasks related to disaster response, and more importantly, it should be used to predict and minimize future damage. In South Korea, the data related to the damage is checked out by each local government and then federal government aggregates it. This data is included in disaster reports that the federal government discloses by disaster case, but it is difficult to obtain raw data of the damage even for research purposes. In order to obtain data, information extraction may be applied to disaster reports. In the field of information extraction, most of the extraction targets are web documents, commercial reports, SNS text, and so on. There is little research on information extraction for government disaster reports. They are mostly text, but the structure of each sentence is very different from that of news articles and commercial reports. The features of the government disaster report should be carefully considered. In this paper, information extraction method for South Korea government reports in the word format is presented. This method is based on patterns and dictionaries and provides some additional ideas for tokenizing the damage representation of the text. The experiment result is F1 score of 80.2 on the test set. This is close to cutting-edge information extraction performance before applying the recent deep learning algorithms.

빅데이터 분석을 활용한 기금지원 체육시설 활성화 방안 (A study of the vitalization strategy for public sports facility through big-data)

  • 김미옥;고진수;노승철;정재훈
    • 디지털융복합연구
    • /
    • 제15권2호
    • /
    • pp.527-535
    • /
    • 2017
  • 운동을 통한 건강증진에 대한 관심이 증가하면서 공공체육시설에 대한 수요는 꾸준히 증가하고 있다. 그러나 공공체육시설의 공급 계획에 비해 운영과 관리에 대한 연구는 부족한 상황이다. 이와 같은 맥락에서 본 연구는 국민체육진흥기금지원 체육시설 사업인 국민체육센터와 개방형체육관에 대한 빅데이터 분석을 통해 시설 활성화 방안을 모색하였다. 2015년 1년 간 뉴스, 블로그, 까페 등 인터넷 문서를 분석한 결과 국민체육센터와 개방형 체육관은 유사한 이용행태를 보이면서도 다른 수요를 갖고 있는 것으로 나타났다. 두 시설 모두 주민의 체육장소로 이용되고 있으나 국민체육시설이 좀 더 전문적인 프로그램을 보이는 반면 개방형 체육관은 생활체육공간으로 이용되는 차이를 보였다. 한편 두 시설 모두 운동 이외 산책, 소풍 등 휴식을 목적으로 방문하는 비율이 높아 시설 활성화를 위해서는 편의시설 확충과 다양한 기능의 복합이 필요할 것으로 보인다.

서비스워커 기반의 캐싱 시스템을 이용한 웹 콘텐츠 로딩 속도 향상 기법 (Web Content Loading Speed Enhancement Method using Service Walker-based Caching System)

  • 김현국;박진태;최문혁;문일영
    • 한국항행학회논문지
    • /
    • 제23권1호
    • /
    • pp.55-60
    • /
    • 2019
  • contents and big data웹은 사람들의 일상생활에 있어 가장 밀접한 기술 중 하나로 오늘날 대부분의 사람들은 웹을 통해 데이터를 공유하고 있다. 단순 메신저, 뉴스, 영상뿐만 아니라 다양한 데이터가 현재 웹을 통하여 전파되고 있는 셈이다. 또한 웹 어셈블리 기술이 등장하면서 기존 네이티브 환경에서 구동되던 프로그램들이 웹의 영역에 진입하기 시작하면서 웹이 공유하는 데이터는 이제 VR/AR 콘텐츠, 빅데이터 등 그 범주가 점차 넓어지고, 크기가 거대해지고 있다. 따라서 본 논문에서는 브라우저에 종속적이지 않고 독립적으로 동작이 가능한 서비스워커와 웹 브라우저 내에 데이터를 효과적으로 저장할 수 있는 캐시 API를 활용하여 웹 서비스를 사용하는 사용자들에게 웹 콘텐츠를 효과적으로 전달할 수 있는 방법을 제시하였다.

비대면 교육 문제점 파악을 위한 빅데이터 텍스트 마이닝 분석 (Big data text mining analysis to identify non-face-to-face education problems)

  • 박성재;황욱선
    • 한국교육논총
    • /
    • 제43권1호
    • /
    • pp.1-27
    • /
    • 2022
  • 세계적으로 코로나19 바이러스가 만연해짐에 따라 다양한 분야에서 비대면화를 시행하게 되었고, 교육 시스템 또한 급격한 비대면화로 인해 많은 관심이 집중되기 시작하였다. 본 연구의 목적은 현재까지 계속적으로 변화하고 있는 교육환경에 맞추어 비대면 교육이 나아가야 하는 방향성에 대해서 분석하는 것이다. 본 연구에서는 다양한 의견들이 존재하는 소셜네트워크 빅데이터를 수집하기 위하여 텍스톰(Textom), 유씨넷6(Ucinet6) 분석 도구 프로그램을 사용하여 데이터를 시각화하였다. 연구 결과 '코로나'와 관련된 키워드가 주를 이루었으며 '기사', '뉴스'등의 높은 빈도의 키워드들이 존재했다. 분석 결과 네트워크 장애 및 보안 문제와 같은 비대면 교육에 관련한 다양한 이슈들을 확인해 볼 수 있었고, 분석 이후 교육 시장의 성장과 교육 환경의 변화에 따른 비대면 교육 시스템의 방향성에 관하여 연구하였다. 또한 빅데이터를 이용하여 분석한 비대면 교육시의 보안 강화 필요성과 수업 방식에 대한 피드백의 필요성이 존재한다.

Improving Classification Accuracy in Hierarchical Trees via Greedy Node Expansion

  • Byungjin Lim;Jong Wook Kim
    • 한국컴퓨터정보학회논문지
    • /
    • 제29권6호
    • /
    • pp.113-120
    • /
    • 2024
  • 정보통신 기술이 발전함에 따라 우리는 일상에서 다양한 형태의 데이터를 손쉽게 생성하고 있다. 이처럼 방대한 데이터를 효율적으로 관리하려면, 체계적인 카테고리별 분류가 필수적이다. 효율적인 검색과 탐색을 위해서 데이터는 트리 형태의 계층적 구조인 범주 트리로 조직화되는데, 이는 뉴스 웹사이트나 위키피디아에서 자주 볼 수 있는 구조이다. 이에 따라 방대한 양의 문서를 범주 트리의 단말 노드로 분류하는 다양한 기법들이 제안되었다. 그러나 범주 트리를 대상으로 하는 문서 분류기법들은 범주 트리의 높이가 증가할수록 단말 노드의 수가 기하급수적으로 늘어나고 루트 노드부터 단말 노드까지의 길이가 길어져서 오분류 가능성이 증가하며, 결국 분류 정확도의 저하로 이어진다. 그러므로 본 연구에서는 사용자의 요구 분류 정확도를 만족시키면서 세분화된 분류를 구현할 수 있는 새로운 노드 확장 기반 분류 알고리즘을 제안한다. 제안 기법은 탐욕적 접근법을 활용하여 높은 분류정확도를 갖는 노드를 우선적으로 확장함으로써, 범주 트리의 분류 정확도를 극대화한다. 실데이터를 이용한 실험 결과는 제안 기법이 단순 방법보다 향상된 성능을 제공함을 입증한다.

대화문 재구조화를 통한 한국어 대화문 요약 (Summarization of Korean Dialogues through Dialogue Restructuring)

  • 김은희;임명진;신주현
    • 스마트미디어저널
    • /
    • 제12권11호
    • /
    • pp.77-85
    • /
    • 2023
  • COVID-19 이후 온라인을 통한 소통이 증가하여 다양한 플랫폼을 기반으로 소통을 위한 대화 텍스트 데이터가 대량으로 축적되고 있다. 텍스트 데이터로부터 유의미한 정보를 추출하기 위한 텍스트 요약에 대한 중요성이 더욱 증가함에 따라 딥러닝을 활용한 추상 요약 연구가 활발하게 이루어지고 있다. 그러나 대화 데이터는 뉴스 기사와 같은 정형화된 텍스트에 비해 누락 및 변형이 많아 대화 상황을 다양한 관점에서 고려해야 하는 특이성이 있다. 특히 어휘 생략과 동시에 내용과 관련 없는 표현 요소들이 대화의 내용을 요약하는 데 방해가 된다. 그러므로 본 연구에서는 한국어 대화 데이터의 특성을 고려하여 발화문을 재구조화하고 KoBART 기반의 사전학습된 텍스트 요약 모델을 파인 튜닝후, 요약문에서 중복 요소를 제거하는 정제 작업을 통해 대화 데이터 요약 성능을 향상시키고자 한다. 발화문을 재구조화하는 방법으로는 발화 순서에 따라 재구조화는 방법과 중심 발화자를 기준으로 재구조화하는 방법을 결합하였다. 대화문 재구조화 방법을 적용한 결과, Rouge-1 점수가 4 정도 향상되었다. 본 연구의 대화 특성을 고려한 재구조화 방법이 한국어 대화 요약 성능 향상에 유의미함을 입증하였다.

트윗 데이터를 활용한 IT 트렌드 분석 (An Analysis of IT Trends Using Tweet Data)

  • 이진백;이충권;차경진
    • 지능정보연구
    • /
    • 제21권1호
    • /
    • pp.143-159
    • /
    • 2015
  • 불확실한 환경변화에 대처하고 장기적 전략수립을 위해 기업에게 있어서 IT 트렌드에 대한 예측은 오랫동안 중요한 주제였다. IT 트렌드에 대한 예측을 기반으로 새로운 시대에 대한 인식을 하고 예산을 배정하여 빠르게 변화하는 기술의 추세에 대비할 수 있기 때문이다. 해마다 유수의 컨설팅업체들과 조사기관에서 차년도 IT 트렌드에 대해서 발표되고는 있지만, 이러한 예측이 실제로 차년도 비즈니스 현실세계에서 나타났는지에 대한 연구는 거의 없었다. 본 연구는 현존하는 빅데이터 기술을 활용하여 서울지역을 중심으로 지난 8개월동안(2013년 5월1일부터 2013년12월31까지) 정보통신산업진흥원과 한국정보화진흥원에서 2012년 말에 발표한 IT 트렌드 토픽이 언급된 21,589개의 트윗 데이터를 수집하여 분석하였다. 또한 2013년에 나라장터에 올라온 프로젝트들이 IT트렌드 토픽과 관련이 있는지 상관관계분석을 실시하였다. 연구결과, 빅데이터, 클라우드, HTML5, 스마트홈, 테블릿PC, UI/UX와 같은 IT토픽은 시간이 지날수록 매우 빈번하게 언급되어졌으며, 이 같은 토픽들은 2013년 나라장터 공고 프로젝트 데이터와도 매우 유의한 상관관계를 가지고 있는 것을 확인할 수 있었다. 이는 전년도(2012년)에 예측한 트렌드들이 차년도(2013년)에 실제로 트위터와 한국정부의 공공조달사업에 반영되어 나타나고 있는 것을 의미한다. 본 연구는 최신 빅데이터툴을 사용하여, 유수기관의 IT트렌드 예측이 실제로 트위터와 같은 소셜미디에서 생성되는 트윗데이터에서 얼마나 언급되어 나타나는지 추적했다는 점에서 중요한 의의가 있고, 이를 통해 트위터가 사회적 트랜드의 변화를 효율적으로 추적하기에 유용한 도구임을 확인하고자 할 수 있었다.

장비점검 일지의 비정형 데이터분석을 통한 고장 대응 효율화 사례 연구 (Unstructured Data Analysis using Equipment Check Ledger: A Case Study in Telecom Domain)

  • 주연진;김유신;정승렬
    • 인터넷정보학회논문지
    • /
    • 제21권1호
    • /
    • pp.127-135
    • /
    • 2020
  • 비정형 데이터의 수집, 분석 그리고 활용에 대한 필요성이 대두되고 있지만 여전히 비정형 데이터를 효과적으로 활용하지 못하고 있는 실정이다. 본 연구에서는 국내 유수 이동통신 기업의 통신 시설장비 점검 시스템에 기록된 비정형데이터를 분석하여 장비고장 대응과 예방에 적극 활용할 수 있는 기반을 만들고자 하였고, 약 220만 건의 작업일지 데이터를 텍스트 마이닝을 통해 구조화/정형화 하였다. 이를 위해 장비 고장과 관련된 4가지 분석 프레임, 고장인지, 고장원인, 고장대상, 조치결과를 구성하였고 분석 결과로는 크게 3가지의 효율화 방안과 관련한 인사이트를 얻을 수 있었다. 첫 번째로는 신속한 조치를 통한 시간 단축을 도모하고, 두 번째로는 고장장비 Unit 수요를 예측하고, 마지막으로 현장 출동의 최소화를 지원할 수 있을 것으로 기대되었다. 결론적으로, 본 사례연구는 통신시설 장비 고장 대응을 위해 데이터 분석 대상을 정형 데이터뿐만 아니라 장비일지라는 비정형 빅데이터로도 범위를 확장했으며, 이를 분석에 활용하기 위해 처음으로 텍스트 마이닝을 시도를 했다는데 의의를 가진다. 또한 N사는 정형 데이터 뿐 만아니라 년 80만 건씩 축적되던 비정형 데이터의 활용 가치를 확인할 수 있던 기회를 가졌으며, 향후 비정형 데이터의 활용 방안에 대한 발전방향 그리고 추후의 정형 데이터와의 연계 분석 방안 등에 대한 가이드를 확보할 수 있었다.

인구절벽사회에서 노인과 일자리 감성분석 (Sentiment Analysis of Elderly and Job in the Demographic Cliff)

  • 김양우
    • 한국콘텐츠학회논문지
    • /
    • 제20권11호
    • /
    • pp.110-118
    • /
    • 2020
  • 소셜미디어 데이터는 우리사회의 문제점과 여론의 향방을 알 수 있는 대리지표로서의 역할을 하고 있다. 이 연구는 2016년부터 2018년 까지 뉴스데이터 109,015건 건의 자료를 활용하여 우리사회 노인과 일자리 감성분석을 실시함으로써, 고령사회와 인구절벽에 직면한 한국 사회에서, 가용노동력 확대 가능성을 알아보았다. 노인 일자리 토픽키워드로 '노인*일자리', '노인*고용', '노인*임금' 등을 사용하였다. 감성분석결과, 대부분의 기간에서는 긍정적 감성이 우세하여 생산연령인구 확충가능성을 알 수 있었다. 노인 일자리확대관련 긍정 감성과 저임금관련 부정감성으로, 일은 하지만 여전히 빈곤한 노인의 실태가 나타났다. 본 연구에서는 소셜 빅데이터를 활용하여 계층적 군집분석과 연관 텍스트분석으로 노인과 일자리 관련 우리사회의 인식과 감성을 분석하였다.