• 제목/요약/키워드: 하둡 환경

검색결과 95건 처리시간 0.029초

하둡 및 스파크 기반의 협력 필터링 추천 알고리즘 연구 (A Study on Collaborative Filtering Recommendation Algorithm base on Hadoop and Spark)

  • 정영교;김상영;이정준;윤희용
    • 한국컴퓨터정보학회:학술대회논문집
    • /
    • 한국컴퓨터정보학회 2016년도 제53차 동계학술대회논문집 24권1호
    • /
    • pp.81-82
    • /
    • 2016
  • 최근 사용자들의 추천 서비스를 위해 다른 사용자들의 평가값을 이용하여 특정 사용자에게 서비스를 추천해주는 추천 시스템은 협력 필터링 방법을 널리 사용되고 있다. 하지만 이러한 추천 시스템은 클러스터링 과정에서 이미 분류된 그룹에 특정 사용자가 분류되어 정확히 분류되지 못하고, 사용자들의 평가값 오차가 클 경우 정확하지 못한 결과를 추천하는 문제점이 있다. 본 논문에서는 이러한 문제점을 해결하기 위하여 협력 필터링 알고리즘을 클러스터링 기반으로 분산 환경에서 구현하여, 추천의 효과를 최적화 하는 기법을 제안하며 하둡 및 스파크 기반으로 시스템을 구성하여 협력 필터링 추천 알고리즘을 비교 하였다.

  • PDF

하둡 에코시스템을 활용한 로그 데이터의 이상 탐지 기법 (Anomaly Detection Technique of Log Data Using Hadoop Ecosystem)

  • 손시운;길명선;문양세
    • 정보과학회 컴퓨팅의 실제 논문지
    • /
    • 제23권2호
    • /
    • pp.128-133
    • /
    • 2017
  • 최근 대용량 데이터 분석을 위해 다수의 서버를 사용하는 시스템이 증가하고 있다. 대표적인 빅데이터 기술인 하둡은 대용량 데이터를 다수의 서버로 구성된 분산 환경에 저장하여 처리한다. 이러한 분산 시스템에서는 각 서버의 시스템 자원 관리가 매우 중요하다. 본 논문은 다수의 서버에서 수집된 로그 데이터를 토대로 간단하면서 효율적인 이상 탐지 기법을 사용하여 로그 데이터의 변화가 급증하는 이상치를 탐지하고자 한다. 이를 위해, 각 서버로부터 로그 데이터를 수집하여 하둡 에코시스템에 저장할 수 있도록 Apache Hive의 저장 구조를 설계하고, 이동 평균 및 3-시그마를 사용한 세 가지 이상 탐지 기법을 설계한다. 마지막으로 실험을 통해 세 가지 기법이 모두 올바로 이상 구간을 탐지하며, 또한 가중치가 적용된 이상 탐지 기법이 중복을 제거한 더 정확한 탐지 기법임을 확인한다. 본 논문은 하둡 에코시스템을 사용하여 간단한 방법으로 로그 데이터의 이상을 탐지하는 우수한 결과라 사료된다.

하둡 분산 파일 시스템에서 그룹키 기반 Permission Management 시스템 설계 (A Design of Permission Management System Based on Group Key in Hadoop Distributed File System)

  • 김형주;강정호;유한나;전문석
    • 정보처리학회논문지:컴퓨터 및 통신 시스템
    • /
    • 제4권4호
    • /
    • pp.141-146
    • /
    • 2015
  • 최근 스마트 기기 및 소셜 네트워크 서비스, 스트리밍 서비스 등 IT 기술의 발달로 인해 데이터가 급증하였다. 이러한 환경에 맞춰 대용량 데이터를 처리할 수 있는 기술도 함께 주목받고 있는데, 가장 대표적인 기술이 하둡이다. 하둡은 오픈 소스 기반으로 리눅스 기반의 범용 컴퓨터에서 실행할 수 있도록 설계되었다. 초기 하둡은 보안이 거의 도입되지 않았으나, 사용자가 늘어남에 따라 보안이 필요한 데이터가 증가하면서 2009년 커버로스와 토큰 시스템을 도입한 새로운 버전이 나왔다. 그러나 이 방식은 하나의 비밀키만을 사용하고, 사용자마다 블록에 대한 접근허가를 지정할 수 없다는 문제점과 재전송 공격 및 위장 공격 등이 가능하다는 취약점을 가지고 있다. 따라서 본 논문에서는 이러한 취약점을 보안하면서 성능을 유지하기 위해 사용자들을 논리적인 그룹으로 묶어서 인증하고, 이를 토큰에 반영하는 그룹키 기반의 프로토콜을 제안하였다. 성능평가 결과 키 생성에 따른 오버헤드가 없고, 비밀키 유출에 대한 취약점을 해결하였음을 확인하였다.

학습 시스템을 위한 빅데이터 처리 환경 구축 (The Bigdata Processing Environment Building for the Learning System)

  • 김영근;김승현;조민희;김원중
    • 한국전자통신학회논문지
    • /
    • 제9권7호
    • /
    • pp.791-797
    • /
    • 2014
  • 빅데이터의 병렬분산처리 시스템을 위한 아파치 하둡 환경을 구축하기 위해서는 다수의 컴퓨터를 연결하여 노드를 구성하거나, 하나의 컴퓨터에 다수의 가상 노드 구성을 통해 클라우딩 환경을 구축하여야 한다. 그러나 이러한 시스템을 교육 환경에서 실습용으로 구축하는 것은 복잡한 시스템 구성과 비용적인 측면에서 많은 제약이 따른다. 따라서 빅데이터 처리 분야의 입문자들과 교육기관의 실습용으로 사용할 수 있는 실용적이고 저렴한 학습 시스템의 개발이 시급하다. 본 연구에서는 라즈베리파이 보드를 기반으로 하둡과 NoSQL과 같은 빅데이터 처리 및 분석 실습이 가능한 빅데이터 병렬분산처리 학습시스템을 설계 및 구현하였다. 구현된 빅데이터 병렬분산처리시스템은 교육현장과 빅데이터를 시작하는 입문자들에게 유용한 시스템이 될 것으로 기대된다.

제한된 메모리 환경에서의 아파치 스파크 성능 비교 (A performance comparison for Apache Spark platform on environment of limited memory)

  • 송준석;김상영;이정준;윤희용
    • 한국컴퓨터정보학회:학술대회논문집
    • /
    • 한국컴퓨터정보학회 2016년도 제53차 동계학술대회논문집 24권1호
    • /
    • pp.67-68
    • /
    • 2016
  • 최근 빅 데이터를 이용한 시스템들이 여러 분야에서 활발히 이용되기 시작하면서 대표적인 빅데이터 저장 및 처리 플랫폼인 하둡(Hadoop)의 기술적 단점을 보완할 수 있는 다양한 분산 시스템 플랫폼이 등장하고 있다. 그 중 아파치 스파크(Apache Spark)는 하둡 플랫폼의 속도저하 단점을 보완하기 위해 인 메모리 처리를 지원하여 대용량 데이터를 효율적으로 처리하는 오픈 소스 분산 데이터 처리 플랫폼이다. 하지만, 아파치 스파크의 작업은 메모리에 의존적이므로 제한된 메모리 환경에서 전체 작업 성능은 급격히 낮아진다. 본 논문에서는 메모리 용량에 따른 아파치 스파크 성능 비교를 통해 아파치 스파크 동작을 위해 필요한 적정 메모리 용량을 확인한다.

  • PDF

하둡의 분산 파일 시스템 구조를 고려한 비밀분산 기반의 사용자 인증 기법 (User Authentication Scheme based on Secret Sharing for Distributed File System in Hadoop)

  • 김수현;이임영
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2013년도 추계학술발표대회
    • /
    • pp.740-743
    • /
    • 2013
  • 클라우드 컴퓨팅 환경에서는 사용자의 데이터를 수많은 분산서버를 이용하여 데이터를 암호화하여 저장한다. 구글, 야후 등 글로벌 인터넷 서비스 업체들은 인터넷 서비스 플랫폼의 중요성을 인식하고 자체 연구 개발을 수행, 저가 상용 노드를 기반으로 한 대규모 클러스터 기반의 클라우드 컴퓨팅 플랫폼 기술을 개발 활용하고 있다. 이와 같이 분산 컴퓨팅 환경에서 다양한 데이터 서비스가 가능해지면서 대용량 데이터의 분산관리가 주요 이슈로 떠오르고 있다. 한편, 대용량 데이터의 다양한 이용 형태로부터 악의적인 공격자나 내부 사용자에 의한 보안 취약성 및 프라이버시 침해가 발생할 수 있다. 특히, 하둡에서 데이터 블록의 권한 제어를 위해 사용하는 블록 접근 토큰에도 다양한 보안 취약점이 발생한다. 이러한 보안 취약점을 보완하기 위해 본 논문에서는 비밀분산 기반의 블록 접근 토큰 관리 기법을 제안한다.

하둡 환경에서 GPU를 사용한 Job 처리 방법 (Implement of Job Processing Using GPU for Hadoop Environment)

  • 홍석민;유연준;이협건;김영운
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2022년도 추계학술발표대회
    • /
    • pp.77-79
    • /
    • 2022
  • IT기술이 발전함에 따라 전 세계 데이터의 규모는 매년 증가하고 있다. 빅데이터 플랫폼을 사용하는 기업들은 더욱 빠른 빅데이터 처리를 원하고 있다. 이에 본 논문은 하둡 환경에서 GPU를 사용한 Job 처리 방법을 제안한다. 제안하는 방법은 CPU, GPU 클러스터를 따로 구성하여 세 가지 크기로 분류한 Job들을 알맞은 클러스터에 할당하여 처리한다. 향후, 제안하는 방법의 실질적인 검증을 위해 실제 구현과 성능 평가가 필요하다.

모바일 디바이스 환경에서 어플리케이션에 따른 소프트 인터페이스 제작 및 제공 방안 연구 (Research of Soft-Interface Creation and Provision Methodology According to Applications Based on Mobile Device Environment)

  • 조창희;박상현;이상준;김진술
    • 디지털콘텐츠학회 논문지
    • /
    • 제14권4호
    • /
    • pp.513-519
    • /
    • 2013
  • 본 논문에서는 사용자가 사용하는 어플리케이션 환경에 따른 인터페이스를 제공하고, 다양한 어플리케이션 환경에 적용할 수 있도록 웹을 통한 인터페이스 제작을 제공한다. 인터페이스 제작은 HTML5로 제작되어 마우스 드래그를 통해 다양하게 제작할 수 있으며, 기본적인 키 입력에 사용하는 아스키 코드와 안드로이드 OS에서 제공되는 키 이벤트를 사용하여, 문서뿐만 아니라, 멀티미디어, 게임등과 같은 어플리케이션에서 적용하여 사용할 수 있게 한다. 인터페이스 관련 데이터는 하둡 기반의 HDFS에 저장되어 관리되며, 간단한 로그인을 통해 자신이 제작 또는 선택한 인터페이스를 언제든지 제공받을 수 있다. 인터페이스를 빠르게 제공하기 위해 하둡 기반의 HIVE를 사용하여 검색하고 검색한 데이터를 Xml형식으로 제공하여, 제공받는 스마트 모바일에서도 빠르게 처리할 수 있도록 한다.

라즈베리파이를 이용한 빅 데이터 처리 학습 환경 구축 (On Implementing a Learning Environment for Big Data Processing using Raspberry Pi)

  • 황보람;김성규
    • 디지털융복합연구
    • /
    • 제14권4호
    • /
    • pp.251-258
    • /
    • 2016
  • 빅 데이터 처리는 데이터의 크기나 복잡도가 커서 기존의 전통적인 데이터 처리 기법으로는 다루기 힘든 데이터의 처리를 의미한다. 싱글보드 컴퓨터를 포함하는 스마트 기기의 보급은 데이터를 처리하는 방법에 많은 영향을 미치고 있으며 이 들을 활용하여 데이터를 처리하는 기법에 대한 연구가 진행되고 있다. 본 연구에서는 빅 데이터 처리에 필요한 분산처리 시스템을 데스크톱 기기 환경이 아니라 라즈베리파이를 활용하여 하둡 분산처리 환경을 구축하는 방안을 제시한다. 또한 제안하는 시스템의 다양한 테스트를 통한 성능 분석과 스케일링의 용이성을 통해 구축한 학습 환경 구성의 효율성을 보인다.

동적 분산병렬 하둡시스템 및 분산추론기에 응용한 서버가상화 빅데이터 플랫폼 (An elastic distributed parallel Hadoop system for bigdata platform and distributed inference engines)

  • 송동호;신지애;인연진;이완곤;이강세
    • Journal of the Korean Data and Information Science Society
    • /
    • 제26권5호
    • /
    • pp.1129-1139
    • /
    • 2015
  • 시멘틱 웹 기술인 RDF 트리플로 표현된 지식을 추론 과정을 거치면 새로운 트리플들이 생성되어 나온다. 초기 입력된 수억개의 트리플로 구성된 빅데이터와 추가로 생성된 트리플 데이터를 바탕으로 질의응답과 같은 다양한 응용시스템이 만들어 진다. 이 추론기가 수행되는 과정에서 더 많은 컴퓨팅 리소스가 필요해 진다. 이 추가 컴퓨팅 리소스는 하부 클라우드 컴퓨팅의 리소스 풀로부터 공급받아 수행시간을 줄일 수 있다. 본 연구에서는 하둡을 이용하는 환경에서 지식의 크기에 따라 런타임에 동적으로 서버 컴퓨팅 노드를 증감 시키는 방법을 연구하였다. 상부는 응용계층이며, 중간부는 트리플들에 대한 분산병렬추론과 하부는 탄력적 하둡시스템 및 가상화 서버로 구성되는 계층적 모델을 제시한다. 이 시스템의 알고리즘과 시험성능의 결과를 분석한다. 하둡 상에 기 개발된 풍부한 응용소프트웨어들은 이 탄력적 하둡 시스템 상에서 수정 없이 보다 빨리 수행될 수 있는 장점이 있다.