• 제목/요약/키워드: Big data analytics

검색결과 284건 처리시간 0.025초

소셜 빅데이터분석을 통한 외국인근로자에 관한 국민 인식 분석과 정책적 함의 (Analysis of Public Perception and Policy Implications of Foreign Workers through Social Big Data analysis)

  • 하재빈;이도은
    • 디지털융복합연구
    • /
    • 제19권11호
    • /
    • pp.1-10
    • /
    • 2021
  • 본 연구에서는 빅데이터 기법 중에 하나인 텍스트마이닝을 활용하여 소셜플랫폼에서 외국인근로자에 대한 인식을 알아보고 시사점을 도출하고자 하였다. 연구를 위해서 2020년 1월 1일부터 12월 31일까지를 기준으로 '외국인근로자' 검색 키워드를 수집하여 빈도분석, TF-IDF 분석, 연결중심성 분석으로 상위 키워드 100개를 도출하고 비교분석을 수행하였다. 또한 Ucinet6.0과 Netdraw를 이용해 의미연결망을 분석하였으며, CONCOR 분석을 통해 외국인정책 이슈, 지역사회 이슈, 사업주 관점 이슈, 고용 이슈, 근로환경 이슈, 법적 이슈, 출입국 이슈, 인권 이슈로 8개 클로스터로 군집화하였다. 이러한 분석 결과를 바탕으로 외국인근로자 국민적 인식, 주요 이슈를 파악하였으며, 향후 외국인근로자에 대한 정책 및 관련 연구에 필요한 기초자료를 제공하고자 한다.

대용량 분산 Abyss 스토리지의 CDA (Connected Data Architecture) 기반 AI 서비스의 설계 및 활용 (Design and Utilization of Connected Data Architecture-based AI Service of Mass Distributed Abyss Storage)

  • 차병래;박선;서재현;김종원;신병춘
    • 스마트미디어저널
    • /
    • 제10권1호
    • /
    • pp.99-107
    • /
    • 2021
  • 4차 산업혁명, Industry 4.0 과 더불어 최근 ICT 분야의 메가트렌드는 빅데이터, IoT, 클라우드 컴퓨팅, 그리고 인공지능이라고 할 수 있다. 따라서, 4차 산업혁명 시대에 알맞은 AI 서비스들의 기술 개발과 다양한 산업 영역에서 ICT 분야의 융합에 따른 BI (Business Intelligence), IA (Intelligent Analytics, BI + AI), AIoT (Artificial Intelligence of Things), AIOPS (Artificial Intelligence for IT Operations), RPA 2.0 (Robotic Process Automation + AI) 등의 세분화된 기술 발전으로 급속한 디지털 전환 (Digital Transformation)이 진행되고 있는 추세이다. 본 연구에서는 이러한 기술적 상황에 따른 대용량 분산 Abyss 스토리지 기반으로 인프라 측면의 GPU, CDA (Connected Data Architecture) 프레임워크, 그리고 AI의 다양한 머신러닝 서비스들을 통합 및 고도화를 목표로 하며, AI 비즈니스의 수익 모델을 다양한 산업 영역에 활용하고자 한다.

AHP분석을 활용한 사회보장부문 빅 데이터 활용가능 영역 탐색 연구 (A Study on Policy Priorities for Implementing Big Data Analytics in the Social Security Sector : Adopting AHP Methodology)

  • 함영진;안창원;김기호;박규범;김경준;이대영;박선미
    • 디지털융복합연구
    • /
    • 제12권8호
    • /
    • pp.49-60
    • /
    • 2014
  • 본 논문의 목적은 사회보장분야에서 어떠한 이슈가 중요시 되고 있으며, 어떠한 이슈에 빅 데이터 분석기술이 적용가능한지를 전문가 AHP방법을 통해 살펴보는데 있다. 이를 위해 사회보장분야에서 중요시 되고 있는 이슈분석 수행하였으며, 이를 토대로 8개 주요 과제를 도출하였다. 평가기준의 쌍대비교 결과, 정책적 타당성이 사업의 효과성과 실현가능성 보다 중요한 의미를 갖는 지표로 도출되었다. 그리고 세부과제 우순순위 절대평가 결과를 살펴보면, 사회보장분야 부적정 급여 방지와 사각지대 조기 발굴은 빅 데이터 분석을 통해 복지행정의 합리성 증진과 대국민 권리구제를 강화한다는 측면에서 매우 의미 있는 과제로 도출되었다. 본 연구는 사회보장분야에서 빅 데이터 활용 가능여부를 분석하였다는 점에서 의의가 있으며, 향후 빅 데이터 관련 세부과제의 체계적인 추진을 위한 기반연구로 기능할 수 있을 것이다.

A study on the MD&A Disclosure Quality in real-time calculated and provided By Programming Technology

  • Shin, YeounOuk
    • International Journal of Internet, Broadcasting and Communication
    • /
    • 제11권3호
    • /
    • pp.41-48
    • /
    • 2019
  • The Management Discussion and Analysis(MD&A) provides investors with an opportunity to gain insight into the company from a manager's perspective and enables short-term and long-term analysis of the business. And MD&A is an important channel through which companies and investors can communicate, providing a useful source of information for analyzing financialstatements. MD&A is measured by the quality of disclosure and there are many previous studies on the usefulness of disclosure information. Therefore, it is very important for the financial analyst who is the representative information user group in the capital market that MD&A Disclosure Quality is measured in real-time in combination with IT information technology and provided timely to financial analyst. In this study, we propose a method that real-time data is converted to digitalized data by combining MD&A disclosure with IT information technology and provided to financial analyst's information environment in real-time. The real-time information provided by MD&A can help the financial analysts' activities and reduce information asymmetry.

실시간 데이터 분석의 성능개선을 위한 적응형 학습 모델 연구 (A Study on Adaptive Learning Model for Performance Improvement of Stream Analytics)

  • 구진희
    • 융합정보논문지
    • /
    • 제8권1호
    • /
    • pp.201-206
    • /
    • 2018
  • 최근 인공지능을 구현하기 위한 기술들이 보편화되면서 특히, 기계 학습이 폭넓게 사용되고 있다. 기계 학습은 대량의 데이터를 수집하고 일괄적으로 처리하며 최종 조치를 취할 수 있는 통찰력을 제공하나, 작업의 효과가 즉시 학습 과정에 통합되지는 않는다. 본 연구에서는 비즈니스의 큰 이슈로서 실시간 데이터 분석의 성능을 개선하기 위한 적응형 학습 모델을 제안하였다. 적응형 학습은 데이터세트의 복잡성에 적응하여 앙상블을 생성하고 알고리즘은 샘플링 할 최적의 데이터 포인트를 결정하는데 필요한 데이터를 사용한다. 6개의 표준 데이터세트를 대상으로 한 실험에서 적응형 학습 모델은 학습 시간과 정확도에서 분류를 위한 단순 기계 학습 모델보다 성능이 우수하였다. 특히 서포트 벡터 머신은 모든 앙상블의 후단에서 우수한 성능을 보였다. 적응형 학습 모델은 시간이 지남에 따라 다양한 매개변수들의 변화에 대한 추론을 적응적으로 업데이트가 필요한 문제에 폭넓게 적용될 수 있을 것으로 기대한다.

A Big Data Study on Viewers' Response and Success Factors in the D2C Era Focused on tvN's Web-real Variety 'SinSeoYuGi' and Naver TV Cast Programming

  • Oh, Sejong;Ahn, Sunghun;Byun, Jungmin
    • International Journal of Advanced Culture Technology
    • /
    • 제4권2호
    • /
    • pp.7-18
    • /
    • 2016
  • The first D2C-era web-real variety show in Korea was broadcast via tvN of CJ E&M. The web-real variety program 'SinSeoYuGi' accumulated 54 million views, along with 50 million views at the Chinese portal site QQ. This study carries out an analysis using text mining that extracts portal site blogs, twitter page views and associative terms. In addition, this study derives viewers' response by extracting key words with opinion mining techniques that divide positive words, neutral words and negative words through customer sentiment analysis. It is found that the success factors of the web-real variety were reduced in appearance fees and production cost, harmony between actual cast members and scenario characters, mobile TV programing, and pre-roll advertising. It is expected that web-real variety broadcasting will increase in value as web contents in the future, and be established as a new genre with the job of 'technical marketer' growing as well.

벤처창업 관련 뉴스 및 SNS 빅데이터 분석 (The Venture Business Starts News and SNS Big Data Analytics)

  • 반재훈;이예찬;안대중;곽윤혁
    • 한국정보통신학회:학술대회논문집
    • /
    • 한국정보통신학회 2017년도 춘계학술대회
    • /
    • pp.99-102
    • /
    • 2017
  • 대규모의 데이터가 생산되고 저장되는 정보화 시대에서 현재와 과거의 데이터를 바탕으로 미래를 추측하고 방향성을 알아갈 수 있는 빅데이터의 중요성이 강조되고 있다. 정형화 되지 못한 대규모 데이터를 빅데이터 분석 도구인 R과 웹크롤링을 통해 분석하고 그 통계를 기초로 데이터의 정형화와 정보 분석을 하도록 한다. 본 논문에서는 R과 웹크롤링을 이용하여 최근 이슈가 되고 있는 벤처창업을 주 키워드로 하여 뉴스 및 SNS에서 나타나는 벤처창업 관련 빅데이터를 분석한다. 뉴스기사와 페이스북, 트위터에서 벤처창업 관련 데이터를 수집하고 수집된 데이터에서 키워드를 분류하여 효율적인 벤처창업의 방법과 종류, 방향성에 대해 예측한다. 과거의 벤처창업 실패요인을 분석하고 현재의 문제점을 찾아 데이터 분석을 통해 벤처창업의 흐름과 방향성을 제시하여 창업자들이 겪을 수 있는 어려움을 사전에 예측하고 파악함으로써 실질적인 벤처창업에 크게 이바지할 것으로 보여 진다.

  • PDF

An Analysis of the Positive and Negative Factors Affecting Job Satisfaction Using Topic Modeling

  • Changjae Lee;Byunghyun Lee;Ilyoung Choi;Jaekyeong Kim
    • Asia pacific journal of information systems
    • /
    • 제34권1호
    • /
    • pp.321-350
    • /
    • 2024
  • When a competent employee leaves an organization, the technical skills and know-how possessed by that employee also disappear, which may lead to various problems, such as a decrease in organizational morale and technology leakage. To address such problems, it is important to increase employees' job satisfaction. Due to the advancement of both information and communication technology and social media, many former and current employees share information regarding companies in which they have worked or for which they currently work via job portal websites. In this study, a web crawl was used to collect reviews and job satisfaction ratings written by all and incumbent employees working in nine industries from Job Planet, a Korean job portal site. According to this analysis, regardless of the industry in question, organizational culture, welfare support, work system, growth capability and relationships had significant positive effects on job satisfaction, while time and attendance management, performance management, and organizational flexibility had significant negative effects on job satisfaction. With respect to the path difference between former and current employees, time and attendance management and organizational flexibility have greater negative effects on job satisfaction for current employees than for former employees. On the other hand, organizational culture, work system, and relationships had greater positive effects for current employees than for former employees.

아파치 스파크 활용 극대화를 위한 성능 최적화 기법 (Performance Optimization Strategies for Fully Utilizing Apache Spark)

  • 명노영;유헌창;최수경
    • 정보처리학회논문지:컴퓨터 및 통신 시스템
    • /
    • 제7권1호
    • /
    • pp.9-18
    • /
    • 2018
  • 분산 처리 플랫폼에서 다양한 빅 데이터 처리 어플리케이션들의 수행 성능 향상에 대한 관심이 높아지고 있다. 이에 따라 범용적인 분산 처리 플랫폼인 아파치 스파크에서 어플리케이션들의 처리 성능 최적화에 대한 연구들이 활발하게 진행되고 있다. 스파크에서 데이터 처리 어플리케이션들의 수행 성능을 향상시키기 위해서는 스파크의 분산처리모델인 Directed Acyclic Graph(DAG)에 알맞은 형태로 어플리케이션을 최적화시켜야 하고 어플리케이션의 처리 특징을 고려하여 스파크 시스템 파라미터들을 설정해야 하기 때문에 매우 어렵다. 기존 연구들은 각각의 어플리케이션의 처리 성능에 영향을 주는 하나의 요소에 대한 부분적인 연구를 수행했고, 최종적으로 어플리케이션의 성능개선을 이뤄냈지만 스파크의 전반적인 처리과정을 고려한 성능 최적화를 다루지 않았을 뿐만 아니라 처리성능과 상관관계를 갖는 다양한 요소들의 복합적인 상호작용을 고려하지 못했다. 본 연구에서는 스파크에서 일반적인 데이터 처리 어플리케이션의 수행 과정을 분석하고, 분석된 결과를 토대로 어플리케이션의 처리과정 중 스테이지 내부와 스테이지 사이에서 성능 향상을 위한 처리 전략을 제안한다. 또한 스파크의 시스템 설정 파라미터 중 분산 병렬처리와 밀접한 관계를 갖는 파티션 병렬화에 따른 어플리케이션의 수행성능을 분석하고 적합한 파티셔닝 최적화 기법을 제안한다. 3가지 성능 향상 전략의 실효성을 입증하기 위해 일반적인 데이터 처리 어플리케이션: WordCount, Pagerank, Kmeans에 각각의 방법을 사용했을 때의 성능 향상률을 제시한다. 또한 제안한 3가지 성능 최적화 기법들이 함께 적용될 때 복합적인 성능향상 시너지를 내는지를 확인하기 위해 모든 기법들이 적용됐을 때의 성능 향상률을 제시함으로써 본 연구에서 제시하는 전략들의 실효성을 입증한다.

빅데이터 분석을 활용한 실험계획법 기반의 코팅제 배합비율 최적화 모형 (Optimization Model for the Mixing Ratio of Coatings Based on the Design of Experiments Using Big Data Analysis)

  • 노성여;김영진
    • 정보처리학회논문지:컴퓨터 및 통신 시스템
    • /
    • 제3권10호
    • /
    • pp.383-392
    • /
    • 2014
  • 코팅제에 대한 연구는 고분자 산업에서 가장 보편화되고 활발하게 연구되고 있는 내용의 하나이다. 코팅제는 전자산업, 의료, 광학 분야 등에서 중요성이 더욱 커지고 있으며, 특히 자동차 및 전자부품의 첨단화에 힘입어 코팅제에 대한 성능과 정밀도 등 기술적인 요구사항이 증가하고 있는 추세이다. 또한 방대한 환경 정보와 상황 정보를 기반으로 한 사물 인터넷과 빅데이터 분석 기술의 도입을 통해 산업 현장에서는 더욱 지능화되고 자동화된 시스템과 처리 기술의 필요성이 높아지고 있다. 이에 본 논문에서는 사물 인터넷 기술과 빅데이터 분석을 활용한 실험계획법 기반의 코팅제 배합 데이터에 대한 최적화 모형을 제안한다. 본 논문에서는 실제 생산현장에서 사용하는 코팅제 배합 기준 데이터와 발생한 오차에 대하여 작업자가 수정한 보정 결과 데이터를 실험계획법을 기반으로 분석하여 최적의 코팅제 배합 기준 데이터를 계산하였다. 또한 빅데이터 분석 기술과 사물 인터넷 기술을 활용하여 기존의 코팅제 배합 기준 데이터만을 적용한 공정이 아니라 제조 환경 정보와 상황 정보를 이용하여 색상과 품질 유지에 가장 중요한 인자를 검색하고 기준값을 보정하는 최적화 모형을 도출하였다. 실험 및 분석을 통해 확보된 기준 데이터는 제조 공정에 적용할 경우 배합의 정확도 향상과 LOT별 작업시간 단축을 가능하게 해주고, 건당 처리시간의 감소로 인한 생산 납품시간 단축, 불량률 감소 등에 따른 원가 절감에 기여할 수 있다. 또한, 다양한 모델링에 대한 제조 공정에서의 표준 데이터를 획득할 수 있다.