• 제목/요약/키워드: twitter data

검색결과 301건 처리시간 0.028초

사회적 재난에 대한 트위터 여론 수렴 모델: '가습기 살균제' 사건을 중심으로 (A Collecting Model of Public Opinion on Social Disaster in Twitter: A Case Study in 'Humidifier Disinfectant')

  • 박준형;류법모;오효정
    • 정보처리학회논문지:소프트웨어 및 데이터공학
    • /
    • 제6권4호
    • /
    • pp.177-184
    • /
    • 2017
  • 최근 점차 복잡해져가는 사회구조 속에서 사회적 재난은 빈번하게 발생되고 있으며, 그 피해 규모 또한 점차 대형화되고 있다. 따라서 사회적 재난에 신속하게 대응함으로써, 추가 피해를 방지할 수 있는 체계화된 방법이 필요하다. 그 중에서도 소셜미디어, 특히 트위터는 신속성 및 확장성이 높아 재난에 대한 대응책으로 새롭게 주목받고 있다. 다양한 대중들의 관심이 드러나는 트위터의 여론을 수렴하는 것은 재난 발생에 신속하게 대응하고, 추가적인 피해를 방지하는데 유용한 수단으로 활용될 수 있다. 따라서 본 연구는 키워드 분석 및 이슈 트윗 추출, 시계열 분석 과정을 통해 사회적 재난에 대한 트위터 여론 수렴 방법을 제안하였으며, 최근 사회적으로 이슈화된 가습기 살균제 사건을 연구 대상으로 선정, 실제 적용가능성을 보이는데 의의가 있다.

하둡 보안 기술과 취약점 분석 (Hadoop Security Technologies and Vulnerability Analysis)

  • 김아용;하의륜;김한길;박만섭;정회경
    • 한국정보통신학회:학술대회논문집
    • /
    • 한국정보통신학회 2013년도 춘계학술대회
    • /
    • pp.681-683
    • /
    • 2013
  • 스마트폰이 보급되어 빅 데이터(Big Data) 시대를 맞이하였고, 페이스북(FaceBook)이나 트위터(Twitter)같은 SNS(Social Network Service)를 실생활에서 일상화되어 사용하고 있다. 여기서 발생하는 SNS의 비정형 데이터를 버리지 않고 분석 및 추출하고 활용하기 위해서 아파치 재단에서 개발된 하둡(Hadoop)을 활용하고 있다. 하둡은 대량의 자료를 처리할 수 있는 오픈 소스 프레임워크(Open Source Framework)이다. 하둡은 국내의 기업에서도 도입하고 있으며 현재 개발 및 상용하고 있다. 그러나 하둡은 기술 개발에 비해 보안 분야는 미흡하다는 지적을 받고 있다. 이에 본 논문에서는 하둡의 보안 기술과 취약점을 분석하고 보안을 향상시키는 방법을 제안한다.

  • PDF

SNS를 이용한 서비스 혁신 방법에 관한 연구 (A Study on the Service Innovation using SNS)

  • 이종찬;이원영
    • 전기전자학회논문지
    • /
    • 제20권3호
    • /
    • pp.235-240
    • /
    • 2016
  • 본 연구에서는 서비스 혁신을 위한 외부 자원으로 트위터(Twitter)를 활용하고자 하였다. 이를 위해 2016년 5월, S사, X사와 관련 있는 데이터를 각각 4,766건, 15,543건 씩 실시간 추출하고 분석을 실시하였다. 정서 분석(sentiment analysis, SA)을 통하여 두 기업에 대한 감성적 분위기를 파악할 수 있었고, 계량서지학적 분석(bibliometric analysis, BA)을 이용하여 주제어 간의 수직적 관계를 파악할 수 있었다. 추가적으로 사회적 연결망 분석(social network analysis, SNA)을 통하여 주제어 간의 수평적 관계 또한 확인할 수 있었다. 본 연구를 통해 혁신 주제의 탐색 시 사회 연결망 서비스가 외부 자원으로서 충분한 활용 가치가 있음을 확인하였다.

A biomedically oriented automatically annotated Twitter COVID-19 dataset

  • Hernandez, Luis Alberto Robles;Callahan, Tiffany J.;Banda, Juan M.
    • Genomics & Informatics
    • /
    • 제19권3호
    • /
    • pp.21.1-21.5
    • /
    • 2021
  • The use of social media data, like Twitter, for biomedical research has been gradually increasing over the years. With the coronavirus disease 2019 (COVID-19) pandemic, researchers have turned to more non-traditional sources of clinical data to characterize the disease in near-real time, study the societal implications of interventions, as well as the sequelae that recovered COVID-19 cases present. However, manually curated social media datasets are difficult to come by due to the expensive costs of manual annotation and the efforts needed to identify the correct texts. When datasets are available, they are usually very small and their annotations don't generalize well over time or to larger sets of documents. As part of the 2021 Biomedical Linked Annotation Hackathon, we release our dataset of over 120 million automatically annotated tweets for biomedical research purposes. Incorporating best-practices, we identify tweets with potentially high clinical relevance. We evaluated our work by comparing several SpaCy-based annotation frameworks against a manually annotated gold-standard dataset. Selecting the best method to use for automatic annotation, we then annotated 120 million tweets and released them publicly for future downstream usage within the biomedical domain.

비격식 문서 분류 성능 개선을 위한 LDA 단어 분포 기반의 자질 확장 (Feature Expansion based on LDA Word Distribution for Performance Improvement of Informal Document Classification)

  • 이호경;양선;고영중
    • 정보과학회 논문지
    • /
    • 제43권9호
    • /
    • pp.1008-1014
    • /
    • 2016
  • 트위터, 페이스북, 온라인 고객 리뷰 등은 신문기사처럼 정제된 글이 아닌 자유롭게 기술되는 비격식(informal) 텍스트 문서에 속한다. 이러한 비격식 문서에서 일관된 규칙이나 패턴을 찾는 일은 격식(formal) 문서 경우에 비해 용이하지 않기 때문에, 비격식 문서 분석을 위해서는 성능 개선을 위한 추가적인 접근 방법 필요다고 판단된다. 본 연구에서는 대표적 비격식 문서인 트위터 데이터를 열 가지 카테고리로 분류함에 있어 LDA(Latent Dirichlet allocation) 단어 분포를 사용하여 자질(feature)을 교정하고 확장한다. 토픽별로 상위에 랭크된 단어 자질들을 기반으로 다른 단어 자질들을 분해 및 병합하는 방식으로 유용한 자질 집합을 반복적으로 확장시킨다. 이렇게 생성된 자질로 문서 분류를 수행한 결과 자질 확장 이전에 비해 마이크로 평균 F1-score 7.11%p의 성능 개선 효과를 확인할 수 있었다.

Company Name Discrimination in Tweets using Topic Signatures Extracted from News Corpus

  • Hong, Beomseok;Kim, Yanggon;Lee, Sang Ho
    • Journal of Computing Science and Engineering
    • /
    • 제10권4호
    • /
    • pp.128-136
    • /
    • 2016
  • It is impossible for any human being to analyze the more than 500 million tweets that are generated per day. Lexical ambiguities on Twitter make it difficult to retrieve the desired data and relevant topics. Most of the solutions for the word sense disambiguation problem rely on knowledge base systems. Unfortunately, it is expensive and time-consuming to manually create a knowledge base system, resulting in a knowledge acquisition bottleneck. To solve the knowledge-acquisition bottleneck, a topic signature is used to disambiguate words. In this paper, we evaluate the effectiveness of various features of newspapers on the topic signature extraction for word sense discrimination in tweets. Based on our results, topic signatures obtained from a snippet feature exhibit higher accuracy in discriminating company names than those from the article body. We conclude that topic signatures extracted from news articles improve the accuracy of word sense discrimination in the automated analysis of tweets.

The Social Networking Application Success Model: An Empirical Study of Facebook and Twitter

  • Ou, Carol X.J.;Davison, Robert M.;Huang, Vivian Q.
    • International Journal of Knowledge Content Development & Technology
    • /
    • 제6권1호
    • /
    • pp.5-39
    • /
    • 2016
  • Social networking applications (SNAs) are among the fastest growing web applications of recent years. In this paper, we propose a causal model to assess the success of SNAs, grounded on DeLone and McLean's updated information systems (IS) success model. In addition to their original three dimensions of quality, i.e., system quality, information quality and service quality, we propose that a fourth dimension - networking quality - contributes to SNA success. We empirically examined the proposed research model with a survey of 168 Facebook and 149 Twitter users. The data validates the significant role of networking quality in determining the focal SNA's success. The theoretical and practical implications are discussed.

기업형 트위터의 품질이 고객만족과 브랜드 충성도에 미치는 영향 : 국내 통신사의 고객센터 트위터를 중심으로 (The Impact of Quality of Corporate Twitters on Customer Satisfaction and Brand Loyalty : Focused on Telecommunication Firms' Twitters for Call Centers)

  • 황재훈;이다훈;신택수
    • Journal of Information Technology Applications and Management
    • /
    • 제22권2호
    • /
    • pp.123-148
    • /
    • 2015
  • Today the mobile devices including smart phones have influenced on the users' daily activities in the mobile internet society, and the expansion of social media has also affected on the purchasing behavior of consumers. This study examines whether the quality of corporate twitter, a typical social network service for call centers influences on the customer satisfaction, and brand loyalty. In order to achieve the research goal, the quality of twitter has been divided into four variables; information quality, service quality, system quality, and social quality. The results of our empirical analysis show that the three variables except service quality have significantly influenced on the customer satisfaction and the customer satisfaction also significantly has a casual effect on the brand loyalty. The empirical results are expected as a guideline to contribute on the practical improvement of customer service, satisfaction, and brand loyalty through corporate social network services such as corporate twitters in the future.

지역별 감성 분석을 위한 트위터 데이터 수집 시스템 설계 (Design of Twitter data collection system for regional sentiment analysis)

  • 최기원;김희철
    • 한국정보통신학회:학술대회논문집
    • /
    • 한국정보통신학회 2017년도 추계학술대회
    • /
    • pp.506-509
    • /
    • 2017
  • 오피니언 마이닝은 텍스트 속의 감성을 분석해 낼 수 있는 방법으로 작성자의 정서 상태 파악이나 대중의 의견을 알아내기 위해 사용된다. 이를 통해서 개인의 감성을 분석할 수 있듯이 텍스트를 지역별로 수집하여 분석한다면 지역별로 가지고 있는 감정 상태에 대해서 알아 낼 수 있다. 지역별 감성분석은 개인 감성분석에서 얻어 낼 수 없었던 정보를 얻어낼 수 있으며 해당 지역이 어떠한 감정을 가지고 있을 때, 그 원인에 대해서도 파악할 수 있다. 지역별 감성 분석을 위해서는 각 지역별로 작성된 텍스트 데이터들이 필요하므로 트위터 크롤링을 통해서 데이터를 수집해야 한다. 따라서 본 논문에서는 지역별 감성분석을 위한 트위터 데이터 수집 시스템을 설계한다. 클라이언트에서는 특정 지역 및 시간대의 트윗 데이터를 요청하며, 서버에서는 클라이언트로부터 요청받은 트윗 데이터를 수집 및 전송한다. 지역이 가지는 위도, 경도 값을 통해 해당 지역의 트윗 데이터를 수집하며, 수집한 데이터들을 통해 텍스트를 지역 및 시간별로 관리할 수 있다. 본 시스템 설계를 통해 감성분석을 위한 효율적인 데이터 수집 및 관리를 기대한다.

  • PDF

소셜미디어 수집과 분석을 위한 재난 빅 데이터 플랫폼의 설계 (Design of a Disaster Big Data Platform for Collecting and Analyzing Social Media)

  • 반퀴엣뉘엔;신응억뉘엔;양쯔엉뉘엔;김경백
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2017년도 춘계학술발표대회
    • /
    • pp.661-664
    • /
    • 2017
  • Recently, during disasters occurrence, dealing with emergencies has been handled well by the early transmission of disaster relating notifications on social media networks (e.g., Twitter or Facebook). Intuitively, with their characteristics (e.g., real-time, mobility) and big communities whose users could be regarded as volunteers, social networks are proved to be a crucial role for disasters response. However, the amount of data transmitted during disasters is an obstacle for filtering informative messages; because the messages are diversity, large and very noise. This large volume of data could be seen as Social Big Data (SBD). In this paper, we proposed a big data platform for collecting and analyzing disasters' data from SBD. Firstly, we designed a collecting module; which could rapidly extract disasters' information from the Twitter; by big data frameworks supporting streaming data on distributed system; such as Kafka and Spark. Secondly, we developed an analyzing module which learned from SBD to distinguish the useful information from the irrelevant one. Finally, we also designed a real-time visualization on the web interface for displaying the results of analysis phase. To show the viability of our platform, we conducted experiments of the collecting and analyzing phases in 10 days for both real-time and historical tweets, which were about disasters happened in South Korea. The results prove that our big data platform could be applied to disaster information based systems, by providing a huge relevant data; which can be used for inferring affected regions and victims in disaster situations, from 21.000 collected tweets.