• 제목/요약/키워드: Big 5 모델

검색결과 197건 처리시간 0.025초

빅데이터 유통 생태계에 기반한 단계별 빅데이터 유통 모델 개발에 관한 연구 (A Study on the Development of Phased Big Data Distribution Model Based on Big Data Distribution Ecology)

  • 김신곤;이석준;김정곤
    • 디지털융복합연구
    • /
    • 제14권5호
    • /
    • pp.95-106
    • /
    • 2016
  • 본 연구는 빅데이터 유통 생태계에 기반한 단계별 빅데이터 유통 모델 개발 방안을 제안한다. 제안하는 빅데이터 유통모델의 개발은 데이터 중개 및 거래 플랫폼 구축, 거래지원 시스템 구축, 데이터 유통 포털 및 빅데이터 거래소 연결망 구축과 같이 3단계로 구성된다. 데이터 중개 및 거래 플랫폼 구축 단계에서는 데이터 유통 및 거래 플랫폼이 구축되며, 총괄시스템과 등록 및 거래관리 시스템으로 구성되며, 거래지원 시스템 구축 단계에서는 원활한 데이터 거래를 위한 거래지원 시스템이 추가적으로 구축된다. 마지막 데이터 유통 포털 및 빅데이터 거래소 연결망 구축 단계에서는 여러 거래소들의 통합에 필요한 유통 관리 시스템이 구축된다. 새로운 기술, 프로세스, 데이터 과학 등을 이용하여 과거의 데이터 관리 시스템을 빠르게 대체해 나가고 있는 현대의 데이터 시장에서 데이터 유통시장 모델은 계속 진화하고 있으며, 비즈니스 업계에서 수용되고 있다. 따라서 제안하는 빅데이터 유통 모델은 멀지 않은 장래에 데이터를 관리하고 접근하기 위한 산업표준 확립 시 고려될 수 있다고 사료된다.

빅데이터 표준분석모델을 활용한 CCTV우선 설치지역 도출 사례연구 (The Case Study of CCTV Priority Installation Using BigData Standard Analysis Model)

  • 성창수;박주연;가회광
    • 디지털융복합연구
    • /
    • 제15권5호
    • /
    • pp.61-69
    • /
    • 2017
  • 본 논문에서는 공공기관의 빅데이터를 활용한 표준분석모델을 살펴보고, 실제 사례현장의 분석결과를 통해 빅데이터 표준분석모델의 적합성과 효과성을 확인하고자 한다. 특히 행정효율성을 향상시킬 수 있는 분야인 민원, CCTV 등의 빅데이터에 대한 표준분석모델을 대상으로 하였다. 이를 위해 빅데이터 표준분석 지표를 산출하고 K시의 CCTV우선설치지역 사례에 적용하여 빅데이터 표준분석모델의 정확성을 조사하였다. 빅데이터 표준분석 모델을 활용한 K시의 사례분석 결과, 우선 설치리스트 상위 지점 모두 범죄취약지수 중 환경지수 값이 전반적으로 낮게 나온 반면, CCTV미설치 지역에 따른 감시취약지수와 야간 및 심야 시간대의 유동인구 지수가 높게 나타났다. 이는 실제로 CCTV설치에 대한 민원이 높고 그 필요성을 인지하고 있는 지역으로 빅 데이터 분석결과가 높은 정확성을 나타내고 있음을 확인할 수 있다. 이러한 연구결과는 빅데이터 활용과 분석에 의한 행정 효율성의 제고 및 디지털 융합 환경에서 빅데이터 표준분석 모델의 의미있는 시사점을 제시하고 있다.

Squall: 실시간 이벤트와 마이크로-배치의 동시 처리 지원을 위한 TMO 모델 기반의 실시간 빅데이터 처리 프레임워크 (Squall: A Real-time Big Data Processing Framework based on TMO Model for Real-time Events and Micro-batch Processing)

  • 손재기;김정국
    • 정보과학회 논문지
    • /
    • 제44권1호
    • /
    • pp.84-94
    • /
    • 2017
  • 최근 다양하고 방대한 양의 데이터를 처리하기 위해 빅데이터의 특성인 5V(Volume, Variety, Velocity, Veracity, Value) 중에서도 속도(Velocity)의 중요성이 강조되면서 대량의 데이터를 빠르고 정확하게 처리하는 기술인 실시간 스트림 처리(Real-time Stream processing)를 위해 많은 연구가 진행되고 있다. 본 논문에서는 실시간 빅데이터 처리를 위해 대표적인 실시간 객체 모델인 TMO(Time-triggered Message-triggered Object) 개념을 도입한 Squall 프레임워크를 제시하고, 단일 노드에서 동작하는 Squall 프레임워크와 그 동작들에 대해 기술한다. TMO는 작업을 수행할 때, 특정 조건에 대해 실시간으로 처리하는 비주기적인 처리방법과 일정 시간 간격동안 주기적인 처리를 지원하는 객체 모델이다. 따라서 Squall 프레임워크는 실시간 빅데이터의 실시간 이벤트 스트림 및 마이크로-배치 처리를 동시에 지원하고, 기존 아파치 스톰과 스파크 스트리밍 대비 상대적으로 우수한 성능을 제공한다. 하지만 Squall은 대부분의 프레임워크에서 제공되는 다중 노드에서의 실시간 분산처리를 위한 추가적인 개발이 필요하다. 결론적으로, TMO 모델의 장점은 실시간 빅데이터 처리시 기존 아파치의 스톰이나 스파크 스트리밍의 단점들을 극복할 수 있다. 이러한 TMO 모델은 실시간 빅데이터 처리에 있어 유용한 모델로서의 가능성을 가지고 있다.

대형교통사고 판별모델 구축에 관한 연구 (A Study on Establishment of Discrimination Model of Big Traffic Accident)

  • 고상선;이원규;배기목;노유진
    • 한국항만학회지
    • /
    • 제13권1호
    • /
    • pp.101-112
    • /
    • 1999
  • Traffic accidents increase with the increase of the vehicles in operation on the street. Especially big traffic accidents composed of over 3 killed or 20 injured accidents with the property damage become one of the serious problems to be solved in most of the cities. The purpose of this study is to build the discrimination model on big traffic accidents using the Quantification II theory for establishing the countermeasures to reduce the big traffic accidents. The results are summarized as follows. 1)The existing traffic accident related model could not explain the phenomena of the current traffic accident appropriately. 2) Based on the big traffic accident types vehicle-vehicle, vehicle-alone, vehicle-pedestrian and vehicle-train accident rates 73%, 20.5% 5.6% and two cases respectively. Based on the law violation types safety driving non-fulfillment center line invasion excess speed and signal disobedience were 48.8%, 38.1% 2.8% and 2.8% respectively. 3) Based on the law violation types major factors in big traffic accidents were road and environment, human, and vehicle in order. Those factors were vehicle, road and environment, and human in order based on types of injured driver’s death. 4) Based on the law violation types total hitting and correlation rates of the model were 53.57% and 0.97853. Based on the types of injured driver’s death total hitting and correlation rates of the model were also 71.4% and 0.59583.

  • PDF

빅데이터 분석을 이용한 기온 변화에 대한 판매량 예측 모델 (Sales Volume Prediction Model for Temperature Change using Big Data Analysis)

  • 백승훈;오지연;이지수;홍준기;홍성찬
    • 한국빅데이터학회지
    • /
    • 제4권1호
    • /
    • pp.29-38
    • /
    • 2019
  • 본 연구에서는 판매량 증대와 효율적인 재고 관리를 위해 지난 5년간 온라인 쇼핑몰 'A'에서 누적된 빅데이터를 활용하여 기온 변화에 따른 반팔 티셔츠와 아우터웨어(outer wear)의 판매량을 예측하는 판매 예측 모델을 제안한다. 제안한 모델은 2014년부터 2017년도까지 기온 변화에 따른 반팔 티셔츠와 아우터웨어의 판매량을 분석하여 2018년 기온 변화에 따른 반팔티셔츠와 아우터웨어의 판매량을 예측한다. 제안한 판매 예측 모델을 사용하여 반팔티셔츠와 아우터웨어의 판매량 예측값과 실제 2018년 판매량을 비교 분석한 결과 반팔티셔츠와 아우터웨어의 예측 오차율은 각각 ±1.5%와 ±8%를 나타내었다.

  • PDF

정보화 환경에 맞는 성격 유형 - e-Personality - 에 관한 연구 - Big 5 Model을 이용하여

  • 나옥규;유은정;임춘성
    • 한국경영과학회:학술대회논문집
    • /
    • 한국경영과학회/대한산업공학회 2005년도 춘계공동학술대회 발표논문
    • /
    • pp.537-544
    • /
    • 2005
  • 정보화 환경에 적합한 인재의 Personality 유형 분류 및 주요 특징 분석을 통하여 이에 대한 모델을 제시하는 것이 본 연구의 목적이다. 기존 심리검사 및 정보화 성격 관련 연구의 한계점을 제시하고 조직 내 각 계층의 업무 수행에 필요한 성격 및 주요 성공 역할을 도출하여 이를 정보화 환경에 맞게 정리함으로써 정보화 성격 유형을 분류하고자 한다. 이러한 성격 유형들은 세부적으로 IT 창조자, Communicator, IT 리더, 정보 공유자, IT 감독자, 비전 제시자, 동기 부여자 등 7가지 수평적 유형으로 분류되며, 이러한 유형들의 분석을 위하여 성격 검사 연구인 Big 5 Model의 분석 방법 및 설문 문항을 적용하고자 한다. 이러한 정보화 성격 분류 및 각 유형에 대한 특성 제시는 개인의 정보화 성향 및 잠재성격을 파악하고 이를 개인적, 조직적으로 더욱 발전시킬 수 있는 방향을 제시할 수 있다.

  • PDF

타임라인데이터를 이용한 트위터 사용자의 거주 지역 유추방법 (Location Inference of Twitter Users using Timeline Data)

  • 강애띠;강영옥
    • Spatial Information Research
    • /
    • 제23권2호
    • /
    • pp.69-81
    • /
    • 2015
  • SNS사용자의 거주 지역을 유추하여 그들이 생성한 데이터에 거주위치를 부여하는 것은 위치희박(location sparsity)과 생태학적 오류문제로 인해 연구결과의 신뢰성이 떨어진다는 평가를 받아온 공간빅데이터 연구에 대안이 될 수 있다. 본 연구에서는 Tweet 사용자의 거주 지역을 유추하는 방법으로 사용자 타임라인데이터 속에서 찾아낸 일상생활활동패턴을 이용하는 방법을 고안하였다. 트윗 사용자의 일상생활활동패턴은 이동궤적과 사용자의 언어(text)에서 확인할 수 있었으며 전자를 활용한 모델을 일상이동패턴모델, 후자를 활용한 모델을 일상 활동장 모델이라 명명하고 각각 모델에 입력될 변수를 선정하였다. 자신의 거주 지역에서 가장 높은 빈도의 트윗 발생 여부와 가장 높은 빈도의 거주행정구역 표현 단어를 사용하는지 아닌지를 종속변수로 한 판별분석을 실시하여 모델을 작성하였으며 설명력은 일상 이동패턴모델, 일상 활동장 모델 각각 67.5%, 57.5%였다. 이 모델을 스트레스 관련 트윗을 작성한 사용자의 타임라인데이터로 구성된 테스트데이터에 입력해본 결과 전체 사용자 48,235명 중 5,301명의 거주 지역을 유추하였고 이를 활용하여 위치 부여된 스트레스 관련 트윗 9,606개를 확보하였다. 본 연구의 유추기법을 통해 기존 SNS데이터 분석연구에서 사용하는 데이터 수집 방법보다 44배 많은 위치 부여 트윗을 확보할 수 있었다. 본 연구방법론은 SNS데이터를 이용한 연구에서 위치 부여된 데이터를 확보하는데 활용 가능할 것으로 판단되며, 각종 지역통계와 상관관계파악을 통해 지역적 현상 분석에도 SNS데이터를 이용할 수 있는 가능성을 높일 것으로 판단된다.

빅데이터를 활용한 효율적인 중소기업 업무 처리 모델 (Business Process Model for Efficient SMB using Big Data)

  • 정윤수
    • 중소기업융합학회논문지
    • /
    • 제5권4호
    • /
    • pp.11-16
    • /
    • 2015
  • 최근에 중소기업은 작고 유연한 조직이 지닌 장점과 빅 데이터의 장점을 결합하여 더 나은 가치를 창출하려는 시도가 증가하고 있다. 그러나 현재까지 중소기업은 생산성 향상에만 치중하여 ICT 패러다임 변화에 맞춰 지속가능한 경쟁력 확보가 부족한 실정이다. 본 논문은 저비용으로 새로운 제품 및 서비스 발굴을 위한 고객 니즈 파악, 타겟 마케팅, 고객관리 등에 효과적으로 활용 가능한 효율적인 중소기업 업무 처리 모델을 제안한다. 제안 모델은 중소기업내 생성되는 방대한 빅데이터를 이용하여 기업내 기업간 협업을 위한 신사업 창출에 필요한 경쟁력을 손쉽게 확보할 수 있다. 또한, 제안 모델은 빅데이터를 활용하여 마케팅 정보역량을 강화하고 이를 통해 분석된 정보를 신제품개발, 목표고객 선정, 가격전략, 홍보 및 판촉활동 등 기업경영활동 전반에 활용할 수 있다.

  • PDF

전자저널 빅딜 계약의 연구 동향과 대안 탐색 (Seeking Alternative Models and Research Trends for Big Deals in the Electronic Journal Consortium)

  • 김상준;김정환
    • 정보관리연구
    • /
    • 제42권1호
    • /
    • pp.85-111
    • /
    • 2011
  • 본 연구의 목적은 빅딜 계약이 큰 비중을 차지하면서 전자저널 컨소시엄 유지를 위한 예산 확보가 학술도서관의 최대 이슈로 자리 잡은 상황에서 빅딜 계약의 대안을 탐색하는 것이다. 이를 위해 빅딜 계약의 현황, 장단점, 문제점에 대한 대응을 토대로 빅딜 계약을 대체하는 다양한 모델을 조사하였다. 문헌연구를 통해 빅딜 계약의 대안을 OA 기반, 이용량 기반, 컨소시엄 개선 기반, 출판사 주도, 기타 등으로 살펴본 후 KESLI를 위해 단기적으로 Cost division 형식이지만 중장기적으로 보다 강화된 컨소시엄을 기반으로 Single(bloc) payment 형식이나 National licene 형식을 지향하는 '컨소시엄 비용 재배분 모델'을 대안으로 제시하였다. '컨소시엄 비용 재배분 모델'은 최근 1년분의 각종 데이터를 기초로 PDF와 HTML 다운은 3배의 가중치를 부여하되 나머지 14개 요소는 각 요소별 0.5점부터 5점까지로 총 100점 만점으로 합산해 자관 총점의 순위에 따라 국가 단위로 협상된 KESLI 총액을 10, 20, 30 등급으로 확정해 최종 협상된 금액에 맞게 다시 배분하여 구독액을 결정하는 방식이다.

빅 데이터의 효율성 시험 평가 방법 (Evaluation Method of Big Data Efficiency)

  • 양형식;김선배
    • 디지털융복합연구
    • /
    • 제11권8호
    • /
    • pp.31-39
    • /
    • 2013
  • 최근 소셜미디어, 산업 간 융합 등이 확대되고, 기존의 PC뿐만 아니라 스마트폰, 태블릿 PC 등 다양한 스마트 기기를 통한 인터넷 이용이 증가하면서 수많은 비정형 데이터를 발생됨에 따라 빅 데이터 시스템에 대한 관심이 증가하고 있다. 시장조사 전문기관에서는 향후 5년에는 현재보다 데이터량이 9배가 증가할 것으로 전망하고 있으며, 빅 데이터 시장도 더 커질 것으로 예상하고 있다. 본 논문에서는 빅 데이터가 갖추어야할 효율성 품질평가 항목을 요구사항 분석을 통해서 도출하고 평가항목을 세분화하여 빅 데이터에 대한 효율성 시험 평가를 하였다.