• Title/Summary/Keyword: intelligence society

검색결과 5,469건 처리시간 0.047초

러프집합분석을 이용한 매매시점 결정 (Rough Set Analysis for Stock Market Timing)

  • 허진영;김경재;한인구
    • 지능정보연구
    • /
    • 제16권3호
    • /
    • pp.77-97
    • /
    • 2010
  • 매매시점결정은 금융시장에서 초과수익을 얻기 위해 사용되는 투자전략이다. 일반적으로, 매매시점 결정은 거래를 통한 초과수익을 얻기 위해 언제 매매할 것인지를 결정하는 것을 의미한다. 몇몇 연구자들은 러프집합분석이 매매시점결정에 적합한 도구라고 주장하였는데, 그 이유는 이 분석방법이 통제함수를 이용하여 시장의 패턴이 불확실할 때에는 거래를 위한 신호를 생성하지 않는다는 점 때문이었다. 러프집합은 분석을 위해 범주형 데이터만을 이용하므로, 분석에 사용되는 데이터는 연속형의 수치값을 이산화하여야 한다. 이산화란 연속형 수치값의 범주화 구간을 결정하기 위한 적절한 "경계값"을 찾는 것이다. 각각의 구간 내에서의 모든 값은 같은 값으로 변환된다. 일반적으로, 러프집합 분석에서의 데이터 이산화 방법은 등분위 이산화, 전문가 지식에 의한 이산화, 최소 엔트로피 기준 이산화, Na$\ddot{i}$ve and Boolean reasoning 이산화 등의 네 가지로 구분된다. 등분위 이산화는 구간의 수를 고정하고 각 변수의 히스토그램을 확인한 후, 각각의 구간에 같은 숫자의 표본이 배정되도록 경계값을 결정한다. 전문가 지식에 의한 이산화는 전문가와의 인터뷰 또는 선행연구 조사를 통해 얻어진 해당 분야 전문가의 지식에 따라 경계값을 정한다. 최소 엔트로피 기준 이산화는 각 범주의 엔트로피 측정값이 최적화 되도록 각 변수의 값을 재귀분할 하는 방식으로 알고리즘을 진행한다. Na$\ddot{i}$ve and Boolean reasoning 이산화는 Na$\ddot{i}$ve scaling 후에 그로 인해 분할된 범주값을 Boolean reasoning 방법으로 종속변수 값에 대해 최적화된 이산화 경계값을 구하는 방법이다. 비록 러프집합분석이 매매시점결정에 유망할 것으로 판단되지만, 러프집합분석을 이용한 거래를 통한 성과에 미치는 여러 이산화 방법의 효과에 대한 연구는 거의 이루어지지 않았다. 본 연구에서는 러프집합분석을 이용한 주식시장 매매시점결정 모형을 구성함에 있어서 다양한 이산화 방법론을 비교할 것이다. 연구에 사용된 데이터는 1996년 5월부터 1998년 10월까지의 KOSPI 200데이터이다. KOSPI 200은 한국 주식시장에서 최초의 파생상품인 KOSPI 200 선물의 기저 지수이다. KOSPI 200은 제조업, 건설업, 통신업, 전기와 가스업, 유통과 서비스업, 금융업 등에서 유동성과 해당 산업 내의 위상 등을 기준으로 선택된 200개 주식으로 구성된 시장가치 가중지수이다. 표본의 총 개수는 660거래일이다. 또한, 본 연구에서는 유명한 기술적 지표를 독립변수로 사용한다. 실험 결과, 학습용 표본에서는 Na$\ddot{i}$ve and Boolean reasoning 이산화 방법이 가장 수익성이 높았으나, 검증용 표본에서는 전문가 지식에 의한 이산화가 가장 수익성이 높은 방법이었다. 또한, 전문가 지식에 의한 이산화가 학습용과 검증용 데이터 모두에서 안정적인 성과를 나타내었다. 본 연구에서는 러프집합분석과 의사결정 나무분석의 비교도 수행하였으며, 의사결정나무분석은 C4.5를 이용하였다. 실험결과, 전문가 지식에 의한 이산화를 이용한 러프집합분석이 C4.5보다 수익성이 높은 매매규칙을 생성하는 것으로 나타났다.

스마트교육을 위한 오픈 디지털교과서 (Open Digital Textbook for Smart Education)

  • 구영일;박충식
    • 지능정보연구
    • /
    • 제19권2호
    • /
    • pp.177-189
    • /
    • 2013
  • 스마트교육에서 디지털교과서의 역할은 학습자와 대면하는 교육미디어로써 그 중요성은 재론의 여지없다. 이러한 디지털교과서는 학습자의 편의와 더불어 교수자, 콘텐츠 제작자, 유통업자를 위하여 표준화되어야 활성화되고 산업화될 수 있다. 본 연구에서는 다음과 같은 3가지 목표를 지향하는 디지털교과서 표준화 방안을 모색한다. (1) 디지털교과서는 온-오프 수업을 모두 지원하는 혼합학습 매체의 역할을 해야 하며, 특별한 전용뷰어 없이 표준을 준수하는 모든 EPUB 뷰어에서 실행가능 해야 하며, 기존의 이러닝 학습 콘텐츠와 학습관리시스템를 활용할 수 있도록 하며, 디지털 교과서를 사용하는 학습자의 정보를 추적 관리할 수 있는 트랙킹기능이 있으면서도, 오프라인 동안의 정보를 축적하여 서버와 통신할 수 있는 기능도 필요하다. 디지털교과서의 표준으로서 EPUB을 고려하는 이유는 디지털교과서가 책의 형태를 가져야 하는데 이를 위해서 따로 표준을 정할 필요가 없으며, EPUB 표준을 채택함으로써 풍부한 콘텐츠, 유통구조, 산업기반을 활용할 수 있기 때문이다. (2) 디지털교과서는 오픈소스를 적극 활용하여 저비용으로 현재 사용가능한 서비스를 구성하여 표준과 더불어 실제 실행 가능한 프로그램으로 제시되어야 하며, 관련 학습 콘텐츠가 오픈마켓의 형태로 운영될 수 있어야 한다. (3) 디지털교과서는 학습자에게 적절한 학습 피드백을 제공하기 위하여 모든 학습활동 정보를 축적하고 관리될 수 있는 인프라를 표준에 따라 구축하여 교육 빅데이터 처리의 기반을 제공하여야 한다. 이북 표준인 EPUB 3.0을 기반으로 하는 오픈 디지털교과서는 (1) 학습활동 정보를 기록하고 (2) 이 학습활동 지원을 위한 서버와 통신하여야 한다. 현재 표준으로 정해져 있지 않은 이북의 기록과 통신 기능을 EPUB 3.0의 JavaScript로 구현하여 현재 EPUB 3.0 뷰어에서도 활용하면서 이를 차세대 이북 표준 또는 교육을 위한 이북 표준(EPUB 3.0 for education)으로 제안하여 향후 제정된 표준 이북 뷰어에서는 JavaScript없이도 처리되도록 하는 전략이 필요하다. 향후 연구는 제안한 오픈 디지털교과서 표준에 의한 오픈소스 프로그램을 개발하고, 개발된 오픈 디지털교과서의 학습활동정보를 활용한 새로운 교육서비스 방안(교육 빅데이터 활용방안 포함)을 제시하는 것이다.

키워드 네트워크 분석을 통해 살펴본 기술경영의 최근 연구동향 (A Study on Recent Research Trend in Management of Technology Using Keywords Network Analysis)

  • 고재창;조근태;조윤호
    • 지능정보연구
    • /
    • 제19권2호
    • /
    • pp.101-123
    • /
    • 2013
  • 최근 경제 패러다임의 변화로 인해 기업이 글로벌 경쟁우위 및 미래 성장동력 확보하기 위해서는 기술과 경영을 통합적으로 이해할 수 있는 학제적 지식을 바탕으로 기술연구의 동향을 파악하고 융합기술 및 유망기술 예측하여 지속적 혁신, 핵심역량 강화, 핵심기술 보유, 기술 융합 등을 통해 새로운 가치를 창출할 필요가 있다. 따라서 본 연구는 기술경영관련 연구의 거시적인 흐름을 분석하기 위해 동시단어 분석기반의 계량서지학적 방법론을 사용하였다. 즉, 최근 10년 동안 기술경영분야의 주요 해외 저널에 게재된 논문의 키워드를 수집한 다음, 빈도 분석, 초기 키워드 네트워크의 구조 분석, 시간이 지남에 따른 새로 생성된 키워드의 선호적 연결 및 성장 분석, 전체 네트워크에 대한 컴포넌트 분석 및 중심성 분석을 수행하였다. 이를 통해 기술경영분야의 논문에 대한 구체적인 연구 주제를 파악할 수 있고, 이들 간의 관계를 파악함으로써, 학제적 연구와 통섭을 위한 구체적인 연구주제들의 조합을 제시할 수 있다. 본 연구결과를 살펴보면 다음과 같다. 첫째, 논문 별 키워드는 1개~23개의 분포를 지니고 있으며, 평균적으로 논문 당 4.574개의 키워드가 있다. 또한 키워드 중 90%가 10년 동안 3번 이하로 사용되었다. 특히 1번만 사용된 키워드는 약 75%의 비중을 차지하고 있음을 확인하였다. 둘째, 키워드 네트워크는 좁은 세상 네트워크 및 척도 없는 네트워크의 특징을 따르고 있음을 확인하였다. 특히 기술경영관련 논문에 사용된 키워드 중 소수의 키워드의 독점화 경향이 높음을 확인할 수 있었다. 셋째, 선호적 연결 및 성장 분석을 통해 기술경영분야의 키워드는 시간이 지남에 따라 선호적 연결을 통한 생존과 소멸 과정에 의해 부익부 빈익빈 현상이 고착되고 있고 있음을 확인하였다. 또한 신규 키워드의 선호적 연결 정도 분석을 통해 신규 연구분야 또는 새로운 연구영역을 창출할 가능성이 있는 키워드 관련 연구 주제에 대한 관심이 시간이 지남에 따라 증가하다가 일정 시점이 지나면 감소함을 확인하였다. 넷째, 컴포넌트 분석 및 중심성 분석을 통해 기술경영관련 연구 동향을 확인하였다. 특히 중심성 분석을 통해 Innovation(혁신), R&D(연구개발), Patent(특허), Forecast(예측), Technology transfer(기술이전), Technology(기술), SME(중소기업) 등의 키워드가 연결중심성, 매개중심성, 근접중심성이 높음을 확인하였다. 본 연구의 분석결과는 기술경영의 연구 동향, 타 학문과의 통섭 및 신규 연구주제 선정 시 참고할 수 있는 유용한 정보로 활용될 수 있다.

NFC 기반의 스마트워크 서비스 모델 설계 (NFC-based Smartwork Service Model Design)

  • 박아름;강민수;전정호;이경전
    • 지능정보연구
    • /
    • 제19권2호
    • /
    • pp.157-175
    • /
    • 2013
  • 본 연구는 기존의 스마트워크 모델인 재택 근무, 스마트워크 센터, 모바일 오피스 등을 지원 및 확장할 수 있는 NFC 기반의 스마트워커 네트워킹 서비스 모델과 NFC 기반의 공간관리 서비스 모델을 제시한다. 본래 재택 근무나 원격 근무는 직원들의 생산성 제고를 위해 시행되었지만, 최근 생산성 저하와 협업의 어려움, 근태 관리의 어려움 등을 이유로 재택 근무의 실효성에 대해 부정적인 의견이 제시되고 있고, 일부 기업은 재택 근무를 폐지하고 있는 실정이다. 이에 본 논문은 직원들 간의 협업 및 커뮤니케이션을 지원하여 업무 생산성을 제고시킬 수 있는 NFC 기반의 커뮤니케이션/SNS 서비스 모델을 제시한다. 또한, NFC 기술을 이용한 지역 기반의 실시간 구인, 구직 서비스 모델을 제안하는데, 이 서비스 모델은 기존의 공유 경제 사이트와의 제휴를 통해 사용자들이 NFC 태그 터치 후 공유경제 사이트에서 필요한 인력을 구하거나, 자신의 기술이나 재능을 무료 또는 유료로 제공함으로써 효율적으로 인력이 활용되는 효과를 가져 올 수 있다. NFC 기반의 커뮤니케이션/SNS 서비스 모델은 구축비용이 낮다는 점과 종업원들의 위치 정보 제공이 가능하다는 점, 지식 축적이 가능하다는 등의 특징을 가진다. NFC 기반의 공간관리 서비스 모델은 스마트워크가 주로 시행되던 오피스 공간뿐만 아니라 그 외의 현장이나 카페 등 기존의 업무공간 이외에서도 업무를 수행할 수 있도록 지원하는 서비스 모델로 공간확장 측면에 중점을 둔 서비스 모델이다. 이 서비스 모델은 구축비용이 낮다는 점, 개인화 서비스의 제공이 가능하다는 점, 기업 외부에 시스템 구축이 가능하다는 점, 기업 내외부에 있는 종업원들의 위치 정보 파악이 가능하다는 특징을 가진다. 본 논문은 위와 같은 스마트워크 서비스 모델을 설계하기 위해 시나리오를 제시하고, 비즈니스 모델의 프로세스와 이해 관계자들의 역할 및 혜택을 검토하며, 기존의 서비스와 비교 분석하여 차별점을 도출하고 시사점을 제시한다. 본 논문이 제시하는 서비스 모델은 기존의 서비스 모델을 대체하는 것이 아니라 지원하고 확장할 수 있는 모델로, NFC라는 인식기술을 활용하여 기업이 좀 더 유연한 스마트워크 시스템을 구축할 수 있도록 한다. 기존에 대기업 위주로 스마트워크가 시행되었으나, NFC 기반의 스마트워크 서비스 모델은 스마트워크를 도입하는 기업의 범위를 확장시키고, 스마트워크 제도의 수혜를 받을 수 있는 구성원의 범위를 확장시킬 수 있을 것으로 기대된다.

지방자치단체 자체 복지사업 지출 영향요인 분석 : 사회보장정보시스템을 통한 접근 (Analysis on Factors Influencing Welfare Spending of Local Authority : Implementing the Detailed Data Extracted from the Social Security Information System)

  • 김경준;함영진;이기동
    • 지능정보연구
    • /
    • 제19권2호
    • /
    • pp.141-156
    • /
    • 2013
  • 그 동안 한국 사회에서 지방자치단체(이하 지자체) 복지사업과 재정지출에 대한 연구는 장애인, 노인, 보육 등 복지사업 대상 등을 중심으로 부문별 복지지출에 대한 영향요인 연구가 대부분 이루어져 왔다. 최근 지자체의 자체적인 복지노력도 측면에서 자체 사업에 대한 연구가 특정 지역의 사례를 중심으로 이루어지기는 하고 있지만, 자료에 대한 접근과 조사의 한계로 여러 요인이 실증적으로 고려되지 못하여 정책적 함의를 도출해 내기 어려웠다. 현재 우리사회의 복지예산과 그 지출규모는 국가 예산의 30%에 이를 만큼 높은 비중을 차지하고 있다. 이에 따라 국가적 차원에서 공공복지 전달체계의 효율적 운영과 관리를 위해 사회보장 정보시스템을 구축, 운영하고 있다. 본 연구에서는 기존 연구에서 사용하는 지방재정시스템이 아닌 사회보장 정보시스템을 통하여 지자체 복지재정 지출과 관련, 기존 연구에서 한계점으로 지적되었던 전수데이터에 대한 접근과 조사를 실시하여 학문적이고 정책적인 함의를 도출해 내고자 한다. 사회보장정보시스템은 복지전달체계의 효율화를 위해 구축되었으며, 이를 통해 17개 부처 292개 복지사업이 집행되며, 230개 지자체 4만여 개 복지사업의 정보가 관리되고 있다. 이에 따라 본 연구는 사회보장정보시스템을 통해 관리되는 지자체 복지사업을 중심으로 지자체 복지지출에 미치는 영향요인을 탐색하고자 한다. 이를 위해 지자체 복지노력도로 대변되는 순수 시 군 구 복지예산액을 종속변수로 설정하였으며, 기존문헌 검토를 바탕으로 인구사회학적, 지역 경제적 그리고 지자체 재정적 요인을 독립변수로 설정하였다. 또한 독립변수 요인간 다중공선성 문제를 점검하였고, 다중공선성의 문제가 없는 것으로 확인된 수급자 비율, 영유아 비율, 아동청소년 비율, 복지비 비율, 구인배율, 재정자립도, 재정자주도의 총 7개 독립변수와, 소속 정당을 통제변수로 사용하여 결정요인의 변화를 분석하였다. 연구결과를 살펴보면 기본모델에서는 복지비 비율, 영유아 비율, 재정자립도, 재정자주도, 구인배율이 유의한 영향을 미치는 것으로 분석되었다. 그리고 기존 문헌에서 분석되지 못했던 시 군 구별 복지지출 영향요인의 차이점을 분석하였다. 또한 복지예산 총량 데이터에 근거한 기존 연구들이 논의하지 못했던 자체 복지사업 예산에 미치는 영향요인을 구체적으로 밝혀내는데 의의가 있다.

불균형 데이터 집합의 분류를 위한 하이브리드 SVM 모델 (A Hybrid SVM Classifier for Imbalanced Data Sets)

  • 이재식;권종구
    • 지능정보연구
    • /
    • 제19권2호
    • /
    • pp.125-140
    • /
    • 2013
  • 어떤 클래스에 속한 레코드의 개수가 다른 클래스들에 속한 레코드의 개수보다 매우 많은 경우에, 이 데이터 집합을 '불균형 데이터 집합'이라고 한다. 데이터 분류에 사용되는 많은 기법들은 이러한 불균형 데이터에 대해서 저조한 성능을 보인다. 어떤 기법의 성능을 평가할 때에 적중률뿐만 아니라, 민감도와 특이도도 함께 측정하여야 한다. 고객의 이탈을 예측하는 문제에서 '유지' 레코드가 다수 클래스를 차지하고, '이탈' 레코드는 소수 클래스를 차지한다. 민감도는 실제로 '유지'인 레코드를 '유지'로 예측하는 비율이고, 특이도는 실제로 '이탈'인 레코드를 '이탈'로 예측하는 비율이다. 많은 데이터 마이닝 기법들이 불균형 데이터에 대해서 저조한 성능을 보이는 것은 바로 소수 클래스의 적중률인 특이도가 낮기 때문이다. 불균형 데이터 집합에 대처하는 과거 연구 중에는 소수 클래스를 Oversampling하여 균형 데이터 집합을 생성한 후에 데이터 마이닝 기법을 적용한 연구들이 있다. 이렇게 균형 데이터 집합을 생성하여 예측을 수행하면, 특이도는 다소 향상시킬 수 있으나 그 대신 민감도가 하락하게 된다. 본 연구에서는 민감도는 유지하면서 특이도를 향상시키는 모델을 개발하였다. 개발된 모델은 Support Vector Machine (SVM), 인공신경망(ANN) 그리고 의사결정나무 기법 등으로 구성된 하이브리드 모델로서, Hybrid SVM Model이라고 명명하였다. 구축과정 및 예측과정은 다음과 같다. 원래의 불균형 데이터 집합으로 SVM_I Model과 ANN_I Model을 구축한다. 불균형 데이터 집합으로부터 Oversampling을 하여 균형 데이터 집합을 생성하고, 이것으로 SVM_B Model을 구축한다. SVM_I Model은 민감도에서 우수하고, SVM_B Model은 특이도에서 우수하다. 입력 레코드에 대해서 SVM_I와 SVM_B가 동일한 예측치를 도출하면 그것을 최종 해로 결정한다. SVM_I와 SVM_B가 상이한 예측치를 도출한 레코드에 대해서는 ANN과 의사결정나무의 도움으로 판별 과정을 거쳐서 최종 해를 결정한다. 상이한 예측치를 도출한 레코드에 대해서는, ANN_I의 출력값을 입력속성으로, 실제 이탈 여부를 목표 속성으로 설정하여 의사결정나무 모델을 구축한다. 그 결과 다음과 같은 2개의 판별규칙을 얻었다. 'IF ANN_I output value < 0.285, THEN Final Solution = Retention' 그리고 'IF ANN_I output value ${\geq}0.285$, THEN Final Solution = Churn'이다. 제시되어 있는 규칙의 Threshold 값인 0.285는 본 연구에서 사용한 데이터에 최적화되어 도출된 값이다. 본 연구에서 제시하는 것은 Hybrid SVM Model의 구조이지 특정한 Threshold 값이 아니기 때문에 이 Threshold 값은 대상 데이터에 따라서 얼마든지 변할 수 있다. Hybrid SVM Model의 성능을 UCI Machine Learning Repository에서 제공하는 Churn 데이터 집합을 사용하여 평가하였다. Hybrid SVM Model의 적중률은 91.08%로서 SVM_I Model이나 SVM_B Model의 적중률보다 높았다. Hybrid SVM Model의 민감도는 95.02%이었고, 특이도는 69.24%이었다. SVM_I Model의 민감도는 94.65%이었고, SVM_B Model의 특이도는 67.00%이었다. 그러므로 본 연구에서 개발한 Hybrid SVM Model이 SVM_I Model의 민감도 수준은 유지하면서 SVM_B Model의 특이도보다는 향상된 성능을 보였다.

구인구직사이트의 구인정보 기반 지능형 직무분류체계의 구축 (Development of Intelligent Job Classification System based on Job Posting on Job Sites)

  • 이정승
    • 지능정보연구
    • /
    • 제25권4호
    • /
    • pp.123-139
    • /
    • 2019
  • 주요 구인구직사이트의 직무분류체계가 사이트마다 상이하고 SW분야에서 제안한 'SQF(Sectoral Qualifications Framework)'의 직무분류체계와도 달라 SW산업에서 SW기업, SW구직자, 구인구직사이트가 모두 납득할 수 있는 새로운 직무분류체계가 필요하다. 본 연구의 목적은 주요 구인구직사이트의 구인정보와 'NCS(National Competaency Standars)'에 기반을 둔 SQF를 분석하여 시장 수요를 반영한 표준 직무분류체계를 구축하는 것이다. 이를 위해 주요 구인구직사이트의 직종 간 연관분석과 SQF와 직종 간 연관분석을 실시하여 직종 간 연관규칙을 도출하고자 한다. 이 연관규칙을 이용하여 주요 구인구직사이트의 직무분류체계를 맵핑하고 SQF와 직무 분류체계를 맵핑함으로써 데이터 기반의 지능형 직무분류체계를 제안하였다. 연구 결과 국내 주요 구인구직사이트인 '워크넷,' '잡코리아,' '사람인'에서 3만여 건의 구인정보를 open API를 이용하여 XML 형태로 수집하여 데이터베이스에 저장했다. 이 중 복수의 구인구직사이트에 동시 게시된 구인정보 900여 건을 필터링한 후 빈발 패턴 마이닝(frequent pattern mining)인 Apriori 알고리즘을 적용하여 800여 개의 연관규칙을 도출하였다. 800여 개의 연관규칙을 바탕으로 워크넷, 잡코리아, 사람인의 직무분류체계와 SQF의 직무분류체계를 맵핑하여 1~4차로 분류하되 분류의 단계가 유연한 표준 직무분류체계를 새롭게 구축했다. 본 연구는 일부 전문가의 직관이 아닌 직종 간 연관분석을 통해 데이터를 기반으로 직종 간 맵핑을 시도함으로써 시장 수요를 반영하는 새로운 직무분류체계를 제안했다는데 의의가 있다. 다만 본 연구는 데이터 수집 시점이 일시적이기 때문에 시간의 흐름에 따라 변화하는 시장의 수요를 충분히 반영하지 못하는 한계가 있다. 계절적 요인과 주요 공채 시기 등 시간에 따라 시장의 요구하는 변해갈 것이기에 더욱 정확한 매칭을 얻기 위해서는 지속적인 데이터 모니터링과 반복적인 실험이 필요하다. 본 연구 결과는 향후 SW산업 분야에서 SQF의 개선방향을 제시하는데 활용될 수 있고, SW산업 분야에서 성공을 경험삼아 타 산업으로 확장 이전될 수 있을 것으로 기대한다.

CNN-LSTM 조합모델을 이용한 영화리뷰 감성분석 (Sentiment Analysis of Movie Review Using Integrated CNN-LSTM Mode)

  • 박호연;김경재
    • 지능정보연구
    • /
    • 제25권4호
    • /
    • pp.141-154
    • /
    • 2019
  • 인터넷 기술과 소셜 미디어의 빠른 성장으로 인하여, 구조화되지 않은 문서 표현도 다양한 응용 프로그램에 사용할 수 있게 마이닝 기술이 발전되었다. 그 중 감성분석은 제품이나 서비스에 내재된 사용자의 감성을 탐지할 수 있는 분석방법이기 때문에 지난 몇 년 동안 많은 관심을 받아왔다. 감성분석에서는 주로 텍스트 데이터를 이용하여 사람들의 감성을 사전 정의된 긍정 및 부정의 범주를 할당하여 분석하며, 이때 사전 정의된 레이블을 이용하기 때문에 다양한 방향으로 연구가 진행되고 있다. 초기의 감성분석 연구에서는 쇼핑몰 상품의 리뷰 중심으로 진행되었지만, 최근에는 블로그, 뉴스기사, 날씨 예보, 영화 리뷰, SNS, 주식시장의 동향 등 다양한 분야에 적용되고 있다. 많은 선행연구들이 진행되어 왔으나 대부분 전통적인 단일 기계학습기법에 의존한 감성분류를 시도하였기에 분류 정확도 면에서 한계점이 있었다. 본 연구에서는 전통적인 기계학습기법 대신 대용량 데이터의 처리에 우수한 성능을 보이는 딥러닝 기법과 딥러닝 중 CNN과 LSTM의 조합모델을 이용하여 감성분석의 분류 정확도를 개선하고자 한다. 본 연구에서는 대표적인 영화 리뷰 데이터셋인 IMDB의 리뷰 데이터 셋을 이용하여, 감성분석의 극성분석을 긍정 및 부정으로 범주를 분류하고, 딥러닝과 제안하는 조합모델을 활용하여 극성분석의 예측 정확도를 개선하는 것을 목적으로 한다. 이 과정에서 여러 매개 변수가 존재하기 때문에 그 수치와 정밀도의 관계에 대해 고찰하여 최적의 조합을 찾아 정확도 등 감성분석의 성능 개선을 시도한다. 연구 결과, 딥러닝 기반의 분류 모형이 좋은 분류성과를 보였으며, 특히 본 연구에서 제안하는 CNN-LSTM 조합모델의 성과가 가장 우수한 것으로 나타났다.

머신러닝 기반 기업부도위험 예측모델 검증 및 정책적 제언: 스태킹 앙상블 모델을 통한 개선을 중심으로 (Machine learning-based corporate default risk prediction model verification and policy recommendation: Focusing on improvement through stacking ensemble model)

  • 엄하늘;김재성;최상옥
    • 지능정보연구
    • /
    • 제26권2호
    • /
    • pp.105-129
    • /
    • 2020
  • 본 연구는 부도위험 예측을 위해 K-IFRS가 본격적으로 적용된 2012년부터 2018년까지의 기업데이터를 이용한다. 부도위험의 학습을 위해, 기존의 대부분 선행연구들이 부도발생 여부를 기준으로 사용했던 것과 다르게, 본 연구에서는 머튼 모형을 토대로 각 기업의 시가총액과 주가 변동성을 이용하여 부도위험을 산정했으며, 이를 통해 기존 방법론의 한계로 지적되어오던 부도사건 희소성에 따른 데이터 불균형 문제와 정상기업 내에서 존재하는 부도위험 차이 반영 문제를 해소할 수 있도록 하였다. 또한, 시장의 평가가 반영된 시가총액 및 주가 변동성을 기반으로 부도위험을 도출하되, 부도위험과 매칭될 입력데이터로는 비상장 기업에서 활용될 수 있는 기업 정보만을 활용하여 학습을 수행함으로써, 포스트 팬데믹 시대에서 주가 정보가 존재하지 않는 비상장 기업에게도 시장의 판단을 모사하여 부도위험을 적절하게 도출할 수 있도록 하였다. 기업의 부도위험 정보가 시장에서 매우 광범위하게 활용되고 있고, 부도위험 차이에 대한 민감도가 높다는 점에서 부도위험 산출 시 안정적이고 신뢰성 높은 평가방법론이 요구된다. 최근 머신러닝을 활용하여 기업의 부도위험을 예측하는 연구가 활발하게 이루어지고 있으나, 대부분 단일 모델을 기반으로 예측을 수행한다는 점에서 필연적인 모델 편향 문제가 존재하고, 이는 실무에서 활용하기 어려운 요인으로 작용하고 있다. 이에, 본 연구에서는 다양한 머신러닝 모델을 서브모델로 하는 스태킹 앙상블 기법을 활용하여 개별 모델이 갖는 편향을 경감시킬 수 있도록 하였다. 이를 통해 부도위험과 다양한 기업정보들 간의 복잡한 비선형적 관계들을 포착할 수 있으며, 산출에 소요되는 시간이 적다는 머신러닝 기반 부도위험 예측모델의 장점을 극대화할 수 있다. 본 연구가 기존 머신러닝 기반 모델의 한계를 극복 및 개선함으로써 실무에서의 활용도를 높일 수 있는 자료로 활용되기를 바라며, 머신러닝 기반 부도위험 예측 모형의 도입 기준 정립 및 정책적 활용에도 기여할 수 있기를 희망한다.

관심 문자열 인식 기술을 이용한 가스계량기 자동 검침 시스템 (Automatic gasometer reading system using selective optical character recognition)

  • 이교혁;김태연;김우주
    • 지능정보연구
    • /
    • 제26권2호
    • /
    • pp.1-25
    • /
    • 2020
  • 본 연구에서는 모바일 기기를 이용하여 획득한 가스계량기 사진을 서버로 전송하고, 이를 분석하여 가스 사용량 및 계량기 기물 번호를 인식함으로써 가스 사용량에 대한 과금을 자동으로 처리할 수 있는 응용 시스템 구조를 제안하고자 한다. 모바일 기기는 일반인들이 사용하는 스마트 폰에 준하는 기기를 사용하였으며, 획득한 이미지는 가스 공급사의 사설 LTE 망을 통해 서버로 전송된다. 서버에서는 전송받은 이미지를 분석하여 가스계량기 기물 번호 및 가스 사용량 정보를 추출하고, 사설 LTE 망을 통해 분석 결과를 모바일 기기로 회신한다. 일반적으로 이미지 내에는 많은 종류의 문자 정보가 포함되어 있으나, 본 연구의 응용분야인 가스계량기 자동 검침과 같이 많은 종류의 문자 정보 중 특정 형태의 문자 정보만이 유용한 분야가 존재한다. 본 연구의 응용분야 적용을 위해서는 가스계량기 사진 내의 많은 문자 정보 중에서 관심 대상인 기물 번호 및 가스 사용량 정보만을 선별적으로 검출하고 인식하는 관심 문자열 인식 기술이 필요하다. 관심 문자열 인식을 위해 CNN (Convolutional Neural Network) 심층 신경망 기반의 객체 검출 기술을 적용하여 이미지 내에서 가스 사용량 및 계량기 기물번호의 영역 정보를 추출하고, 추출된 문자열 영역 각각에 CRNN (Convolutional Recurrent Neural Network) 심층 신경망 기술을 적용하여 문자열 전체를 한 번에 인식하였다. 본 연구에서 제안하는 관심문자열 기술 구조는 총 3개의 심층 신경망으로 구성되어 있다. 첫 번째는 관심 문자열 영역을 검출하는 합성곱신경망이고, 두 번째는 관심 문자열 영역 내의 문자열 인식을 위해 영역 내의 이미지를 세로 열 별로 특징 추출하는 합성곱 신경망이며, 마지막 세 번째는 세로 열 별로 추출된 특징 벡터 나열을 문자열로 변환하는 시계열 분석 신경망이다. 관심 문자열은 12자리 기물번호 및 4 ~ 5 자리 사용량이며, 인식 정확도는 각각 0.960, 0.864 이다. 전체 시스템은 Amazon Web Service 에서 제공하는 클라우드 환경에서 구현하였으며 인텔 제온 E5-2686 v4 CPU 및 Nvidia TESLA V100 GPU를 사용하였다. 1일 70만 건의 검침 요청을 고속 병렬 처리하기 위해 마스터-슬레이브 처리 구조를 채용하였다. 마스터 프로세스는 CPU 에서 구동되며, 모바일 기기로 부터의 검침 요청을 입력 큐에 저장한다. 슬레이브 프로세스는 문자열 인식을 수행하는 심층 신경망으로써, GPU에서 구동된다. 슬레이브 프로세스는 입력 큐에 저장된 이미지를 기물번호 문자열, 기물번호 위치, 사용량 문자열, 사용량 위치 등으로 변환하여 출력 큐에 저장한다. 마스터 프로세스는 출력 큐에 저장된 검침 정보를 모바일 기기로 전달한다.