• 제목/요약/키워드: 소셜 데이터 분석

검색결과 739건 처리시간 0.033초

WebRTC 환경에 데이터 스트리밍 및 사용자 요청에 따른 동적로드 밸런싱 방법 (A Dynamical Load Balancing Method for Data Streaming and User Request in WebRTC Environment)

  • ;박상현;장종현;박재형;김진술
    • 디지털콘텐츠학회 논문지
    • /
    • 제17권6호
    • /
    • pp.581-592
    • /
    • 2016
  • WebRTC는 웹과 모바일과 같이 여러 플랫폼에서 세계 최고 수준의 실시간 커뮤니케이션으로 빠르게 성장했다. WebRTC의 현재 기술은 peer와 시그널링 서버에서 사용자가 요청한 많은 양의 큰 스트리밍을 효율적으로 처리하지 못한다. 따라서, 본 논문에서는 동적로드 밸런싱 알고리즘을 사용하여, 데이터 흐름 전달을 제공함으로써 문제를 처리하는 작업을 수행한다. 또한, 사용자가 요청하는 소스를 분석하고 이러한 스트리밍 요청을 로드 밸런싱 구성 요소에 전달한다. 구체적으로 구성 요소는 요청된 리소스와 사용가능한 리소스의 양을 응답 서버에서 결정한 후 스트리밍 데이터를 요청하는 사용자에게 병렬 또는 교대로 전달한다. 이와 같은 방법을 검증하기 위해 네트워크 시뮬레이션 도구 OPNET을 사용하여 로드 밸런싱 알고리즘을 시연 후 우분투 서버에 적용하여 구현한다. 또한 실험을 통해 도출된 결과와 WebRTC의 구현을 비교하여 제안함으로써 기존 방법보다 효율적이고 동적으로 수행되는 지를 보여준다.

빅데이터 기반 비대면 본인확인 기술에 대한 연구 (A Study on Big Data Based Non-Face-to-Face Identity Proofing Technology)

  • 정관수;염희균;최대선
    • 정보처리학회논문지:컴퓨터 및 통신 시스템
    • /
    • 제6권10호
    • /
    • pp.421-428
    • /
    • 2017
  • 최근 온라인 금융서비스의 성장과 금융 기술의 급격한 발전으로 인하여 온라인에서 사용자를 등록 및 인증하기 위한 비대면 본인확인기술에 대한 다양한 접근 방법의 필요성이 제기되고 있다. 일반적으로 비대면 방식은 대면방식에 비해서 많은 위협에 노출되어 있다. 따라서 최근에는 이런 위험성을 보완하고 보다 신뢰할 수 있는 비대면 본인확인 방법을 위해서 다양한 요소와 채널을 이용하여 사용자를 검증할 수 있는 정책과 기술이 연구되고 있다. 이러한 새로운 접근방법 중 하나는 다수의 사용자 개인정보를 수집하고 검증하는 기술이다. 따라서 본 논문은 사용자의 다양하고 많은 정보를 기반으로 온라인에서 본인확인을 수행하는 빅데이터 기반 비대면 본인확인 방법을 제안한다. 또한 제안방법은 서비스에서 요구하는 본인확인 등급에 필요한 사용자 정보만 수집하고 검증하는 세분화된 본인확인 정보관리 방법을 제안한다. 그리고 본 논문은 검증된 본인확인 정보를 사용자가 재사용할 수 있도록 다른 서비스 제공자들과 공유할 수 있는 본인확인 정보 공유 모델을 제안한다. 마지막으로 제안 방법이 비대면 본인확인 과정에서 강화된 사용자 검증을 통해서 서비스에서 요구하는 본인확인 등급만 검증하고 관리하는 시스템을 구현하여 실험 결과를 분석한다.

씨호크 항공수심라이다 데이터를 활용한 연안침식 시계열 분석 - 강원도 표사계 GW36을 중심으로 - (Coastal Erosion Time-series Analysis of the Littoral Cell GW36 in Gangwon Using Seahawk Airborne Bathymetric LiDAR Data)

  • 이재빈;김지영;김가현;허현수;위광재
    • 대한원격탐사학회지
    • /
    • 제38권6_1호
    • /
    • pp.1527-1539
    • /
    • 2022
  • 최근 동해안의 연안 침식이 가속화되면서 광역의 지역에 대한 과학적이며 정량적인 연안침식 모니터링 기술의 필요성이 증가하고 있다. 기존의 연안의 변화를 관측하는 주요 기술은 현장 측량에 의존한 정밀모니터링이 주로 수행되었지만 소규모 지역에 대해서만 적용이 가능하였다. 항공수심라이다(Airborne Bathymetric LiDAR, ABL) 시스템은 광역의 해변 및 해저 지형에 대한 경제적인 측량이 가능한 기술이다. 특히 해수의 유동이 심하고 파랑에너지가 높아 연안침식 모니터링에서 주요 관심 대상 지역인 조간대에 대해 해저 지형자료의 구축이 가능하다는 장점을 가진다. 본 연구에서는 씨호크(Seahawk) ABL 시스템을 활용하여 2021년 8월과 2022년 3월에 표사계 GW36 연안에 대해 측량 데이터를 취득하고 연안침식에 의한 기선 길이 및 종단 변화, 해안선 변화, Digital Terrain Model 변화를 정량적으로 관측하였다. 연구결과 항공수심라이다 데이터를 연안침식 모니터링에 효과적으로 활용이 가능함을 확인할 수 있었다.

대통령 전자기록물의 이관방식 변천과 개선방안 연구 19대 문재인 정부 대통령 전자기록물을 중심으로 (A Study of the Transition Process in Presidential Electronic Records Transfer and Improvement Measures : Focused on the Electronic Records of the 19th President Moon Jae-in's Administration)

  • 윤정훈
    • 기록학연구
    • /
    • 제75호
    • /
    • pp.41-89
    • /
    • 2023
  • 2007년 「대통령기록물법」 제정 이후, 16대 노무현 정부의 대통령 전자기록물 이관 사례는 공공기록물 관리에 있어 첨병으로써의 역할과 새로운 전자기록물 관리의 테스트 베드로써의 역할을 수행했었다. 19대 문재인 정부의 대통령 전자기록물을 이관할 때에는 16대 때의 전자기록물 이관방식을 계승하되, 몇 가지 혁신적인 시도가 있었다. 대통령기록관은 처음으로 대통령자문기관의 전자문서를 장기보존패키지로 변환한 후 온라인으로 이관 받았고, 데이터의 특성을 고려하여 대통령 기록물생산기관의 행정정보 데이터세트를 SIARD 규격으로 이관을 받았다. 그리고 대통령기록관은 웹사이트를 OVF 형태로 시범적으로 이관 받았으며, 소셜미디어를 API를 통해 직접 수집하였다. 이와 같이 이 연구는 16대 노무현 정부 때부터 19대 문재인 정부 때까지 대통령 전자기록물 이관방식과 관련한 변천과정을 조사하였다. 그리고 19대 문재인 정부의 대통령 전자기록물 유형별 이관방식을 중심으로 주요성과 및 문제점을 분석하여 향후 개선방안을 제시하였다.

한국어 언어모델 파인튜닝을 통한 협찬 블로그 텍스트 생성 (Generating Sponsored Blog Texts through Fine-Tuning of Korean LLMs)

  • 김보경;변재연;차경애
    • 한국산업정보학회논문지
    • /
    • 제29권3호
    • /
    • pp.1-12
    • /
    • 2024
  • 본 논문에서는 대규모 한국어 언어모델인 KoAlpaca를 파인튜닝하고 이를 이용한 블로그 텍스트 생성 시스템을 구현하였다. 소셜 미디어 플랫폼의 블로그는 기업 마케팅 수단으로 널리 활용된다. 수집된 협찬 블로그 텍스트의 감정 분석과 정제를 통한 긍정 리뷰의 학습 데이터를 구축하고 KoAlpaca 학습의 경량화를 위한 QLoRA를 적용하였다. QLoRA는 학습에 필요한 메모리 사용량을 크게 줄이는 파인튜닝 접근법으로 파라미터 크기 12.8B 경우의 실험 환경에서 LoRA 대비 최대 약 58.8%의 메모리 사용량 감소를 확인하였다. 파인튜닝 모델의 생성 성능 평가를 위해서 학습 데이터에 포함되지 않은 100개의 입력으로 생성한 텍스트는 사전학습 모델에 비해서 평균적으로 두배 이상의 단어 수를 생성하였으며 긍정 감정의 텍스트 역시 두 배 이상으로 나타났다. 정성적 생성 성능 평가를 위한 설문조사에서 파인튜닝 모델의 생성 결과가 제시된 주제에 더 잘 부합한다는 응답이 평균 77.5%로 나타났다. 이를 통해서 본 논문의 협찬물에 대한 긍정 리뷰 생성 언어모델은 콘텐츠 제작을 위한 시간 관리의 효율성을 높이고 일관된 마케팅 효과를 보장하는 콘텐츠 제작이 가능함을 보였다. 향후 사전학습 모델의 생성 요소에 의해서 긍정 리뷰의 범주에서 벗어나는 생성 결과를 감소시키기 위해서 학습 데이터의 증강을 활용한 파인튜닝을 진행할 예정이다.

B2B 전자상거래 정보를 활용한 시장 융합 기회 발굴 방법론 (Discovery of Market Convergence Opportunity Combining Text Mining and Social Network Analysis: Evidence from Large-Scale Product Databases)

  • 김지은;현윤진;최윤정
    • 지능정보연구
    • /
    • 제22권4호
    • /
    • pp.87-107
    • /
    • 2016
  • 융합을 통한 기술과 제품의 혁신을 이해하는 것은 중소기업의 생존을 위한 필수가 되었다. 특히, 이종 산업간 융합을 통한 제품 혁신과 성공을 위해서는 융합 가능한 아이템 즉, 제품과 기술, 아이디어를 탐색하고 대안을 찾는 것이 중요하다. 기존의 융합연구는 크게 두 가지의 한계를 갖는다. 첫째, 특허와 논문 등 기술정보를 기반으로 하는 기술융합 발굴은 시장의 수요를 인식하는데 한계가 있다. 본 논문은 중소 창업기업에 적용할 수 있는 시장융합(Market convergence)의 관점에서 새로운 융합 기회를 식별하려고 시도하였다. 이를 위해 세계 중소 수출입 기업이 이용하는 글로벌 B2B e-마켓플레이스의 제품 데이터베이스를 활용하였다. 둘째, 기존의 융합기회 발굴 연구는 이미 융합되어 존재하는 제품 또는 기술 기반의 연관성 및 관계를 파악하는데 집중하였다. 본 연구에서는 융합 가능한 새로운 사업기회의 발굴을 목적으로 구조적공백(Structural Hole) 이론을 적용하여, 상이한 산업군에서 서로 직접적인 연결 관계가 없는 키워드 간의 네트워크를 분석하여 융합의 가능성이 있는 새로운 융합 사업 테마를 도출하고자 한다. 이를 위해 제품명과 제품 기술서를 기반으로 제품 및 기술 용어 사전과 텍스트마이닝 을 활용하여 제품과 서비스의 특성을 추출하고, 이들 특성간 연관관계분석을 수행한 후, 네트워크 분석을 진행 하였다. 실험 데이터는 시장의 최신 동향을 파악하기 위해 2013년 1월 부터 2016년 7월까지 등록된 24만건의 e-카탈로그를 대상으로 하였으며, 분석의 효율성을 높이기 위해 기술 범위를 IT로 제한하고, IT 기술을 매개로 한 "Health & Medical"과 "Security & Protection" 카테고리 간의 융합 기회를 도출 하였다. 실험을 통하여 융합연관규칙 1,729을 추출하였으며, 지지도를 기반으로 100개의 규칙을 샘플링 하여, 구조적 공백을 분석하였다.

소셜데이터 및 ARIMA 분석을 활용한 소비자 관점의 헬스케어 기술수요 예측 연구 (A Study on the Demand Forecasting of Healthcare Technology from a Consumer Perspective : Using Social Data and ARIMA Model Approach)

  • 양동원;이준기
    • 한국IT서비스학회지
    • /
    • 제19권4호
    • /
    • pp.49-61
    • /
    • 2020
  • Prior studies on technology predictions attempted to predict the emergence and spread of emerging technologies through the analysis of correlations and changes between data using objective data such as patents and research papers. Most of the previous studies predicted future technologies only from the viewpoint of technology development. Therefore, this study intends to conduct technical forecasting from the perspective of the consumer by using keyword search frequency of search portals such as NAVER before and after the introduction of emerging technologies. In this study, we analyzed healthcare technologies into three types : measurement technology, platform technology, and remote service technology. And for the keyword analysis on the healthcare, we converted the classification of technology perspective into the keyword classification of consumer perspective. (Blood pressure and blood sugar, healthcare diagnosis, appointment and prescription, and remote diagnosis and prescription) Naver Trend is used to analyze keyword trends from a consumer perspective. We also used the ARIMA model as a technology prediction model. Analyzing the search frequency (Naver trend) over 44 months, the final ARIMA models that can predict three types of healthcare technology keyword trends were estimated as "ARIMA (1,2,1) (1,0,0)", "ARIMA (0,1,0) (1,0,0)", "ARIMA (1,1,0) (0,0,0)". In addition, it was confirmed that the values predicted by the time series prediction model and the actual values for 44 months were moving in almost similar patterns in all intervals. Therefore, we can confirm that this time series prediction model for healthcare technology is very suitable.

Moderating Effect of Security Ability on the Relation between Privacy Concern and Internet Activities

  • Hong, Jae-Won
    • 한국컴퓨터정보학회논문지
    • /
    • 제25권1호
    • /
    • pp.151-157
    • /
    • 2020
  • 본 연구에서는 한국미디어패널조사 데이터를 이용하여 프라이버시 염려가 인터넷 활동성에 미치는 영향에 있어 보안역량의 조절효과를 탐색하였다. 이를 위해 2(프라이버시 염려 고/저) × 2(보안역량 고/저) 집단 간 실험설계를 적용하여 총 4개의 집단을 대상으로 5가지 유형의 인터넷 활동성에 대한 분산분석을 실시하였다. 그 결과, 프라이버시 염려는 인터넷 활동성에 주 효과로 작용하는 것으로 나타났으며, 보안역량은 이 관계에서 조절적 역할을 하는 것으로 나타났다. 이는 프라이버시 염려가 있음에도 불구하고 인터넷을 통한 편익을 누리기 위해 개인정보 침해를 무릅쓰고 혹은 방어하며 인터넷 활동을 하기 때문인 것으로 판단된다. 본 연구는 최근 이슈가 되고 있는 프라이버시 역설에 대한 쟁점을 인터넷 활동의 유형 측면에서 조명하고 있다는데 학문적 의의가 있다. 또한 인터넷으로 연결된 사회 속에서 표현의 자유를 추구하는 개인들의 온라인 활동을 담보하기 위해서는 무엇보다 보안역량 제고를 위한 실무적 노력이 필요함을 시사한다.

소셜미디어 수집과 분석을 위한 재난 빅 데이터 플랫폼의 설계 (Design of a Disaster Big Data Platform for Collecting and Analyzing Social Media)

  • 반퀴엣뉘엔;신응억뉘엔;양쯔엉뉘엔;김경백
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2017년도 춘계학술발표대회
    • /
    • pp.661-664
    • /
    • 2017
  • Recently, during disasters occurrence, dealing with emergencies has been handled well by the early transmission of disaster relating notifications on social media networks (e.g., Twitter or Facebook). Intuitively, with their characteristics (e.g., real-time, mobility) and big communities whose users could be regarded as volunteers, social networks are proved to be a crucial role for disasters response. However, the amount of data transmitted during disasters is an obstacle for filtering informative messages; because the messages are diversity, large and very noise. This large volume of data could be seen as Social Big Data (SBD). In this paper, we proposed a big data platform for collecting and analyzing disasters' data from SBD. Firstly, we designed a collecting module; which could rapidly extract disasters' information from the Twitter; by big data frameworks supporting streaming data on distributed system; such as Kafka and Spark. Secondly, we developed an analyzing module which learned from SBD to distinguish the useful information from the irrelevant one. Finally, we also designed a real-time visualization on the web interface for displaying the results of analysis phase. To show the viability of our platform, we conducted experiments of the collecting and analyzing phases in 10 days for both real-time and historical tweets, which were about disasters happened in South Korea. The results prove that our big data platform could be applied to disaster information based systems, by providing a huge relevant data; which can be used for inferring affected regions and victims in disaster situations, from 21.000 collected tweets.

소셜네트워크 분석을 통한 마케팅 전략 : 트위터의 검색네트워크 (Marketing Strategies using Social Network Analysis : Twitter's Search Network)

  • 유병국;김순홍
    • 한국콘텐츠학회논문지
    • /
    • 제13권5호
    • /
    • pp.396-407
    • /
    • 2013
  • 입소문효과의 극대화를 위한 유력자의 역할은 트위터 네트워크에서도 매우 중요하다고 볼 수 있다. 본 논문에서는 기업 마케팅의 관점에서 트위터 유력자를 파악하고자 하였다. 기업의 마케팅 메시지가 가능한 한 많은 사람들에게 노출되기 위해서는 특정인의 팔로어 수뿐만 아니라 계속적인 리트윗을 통해 입소문이 많이 확산되어야 할 것이다. 즉, 팔로어 수는 많은데 리트윗되지 않거나 리트윗은 많이 되는데 소수자에게 주로 리트윗된다면 전체적인 노출의 정도는 미약하게 될 것이다. 트위터의 특정 검색네트워크 데이터를 이용한 그래프 비교를 통해 다음과 같은 사실을 확인할 수 있었다. 첫째, 리트윗이 없는 팔로어 유력자에 비하여 팔로어 유력자의 리트윗을 받는 상대적인 소수자들의 노출도가 크다는 것을 알 수 있었다. 둘째, 리트윗 유력자중에서도 팔로어 유력자에 의하여 리트윗을 받지 못하는 사용자의 노출도는 매우 미미하다는 것을 알 수 있었다. 위와 같은 사실은 노출도를 높이기 위해서는 실제 유력자도 중요하지만 그런 유력자의 리트윗을 유도하는 사용자의 파악이 더 중요하다는 점을 시사해준다고 볼 수 있다. 이와 함께 노출도의 경우 대부분의 중앙성 척도와 고른 상관관계를 유지하고 있어 노출도가 높은 이용자일수록 네트워크구조상에서도 중심적인 위상을 차지한다는 점도 살펴볼 수 있었다.