• 제목/요약/키워드: Open Source Intelligence

검색결과 64건 처리시간 0.026초

사용자 리뷰를 통한 소셜커머스와 오픈마켓의 이용경험 비교분석 (A Comparative Analysis of Social Commerce and Open Market Using User Reviews in Korean Mobile Commerce)

  • 채승훈;임재익;강주영
    • 지능정보연구
    • /
    • 제21권4호
    • /
    • pp.53-77
    • /
    • 2015
  • 국내 모바일 커머스 시장은 현재 소셜커머스가 이용자 수 측면에서 오픈마켓을 압도하고 있는 상황이다. 산업계에서는 모바일 시장에서 소셜커머스의 성장에 대해 빠른 모바일 시장진입, 큐레이션 모델 등을 주요 성공요인으로 제시하고 있지만, 이에 대한 학계의 실증적인 연구 및 분석은 아직 미미한 상황이다. 본 연구에서는 사용자 리뷰를 바탕으로 모바일 소셜커머스와 오픈마켓의 사용자 이용경험을 비교 분석하는 탐험적인 연구를 수행하였다. 먼저 본 연구는 구글 플레이에 등록된 국내 소셜커머스 주요 3개 업체와 오픈마켓 주요 3개 업체의 모바일 앱 리뷰를 수집하였다. 본 연구는 LDA 토픽모델링을 통해 1만여건에 달하는 모바일 소셜커머스와 오픈마켓 사용자 리뷰를 지각된 유용성과 지각된 편리성 토픽으로 분류한 뒤 감정분석과 동시출현단어분석을 수행하였다. 이를 통해 본 연구는 국내 모바일 커머스 상에서 오픈마켓 이용자들에 비해 소셜커머스 이용자들이 서비스와 이용편리성 측면에서 더 긍정적인 경험을 하고 있음을 증명하였다. 소셜커머스는 '배송', '쿠폰', '할인'을 중심으로 서비스 측면에서 이용자들에게 긍정적인 이용경험을 이끌어내고 있는 반면, 오픈마켓의 경우 '로그인 안됨', '상세보기 불편', '멈춤'과 같은 기술적 문제 및 불편으로 인한 이용자 불만이 높았다. 이와 같이 본 연구는 사용자 리뷰를 통해 서비스 이용경험을 효과적으로 비교 분석할 수 있는 탐험적인 실증연구법을 제시하였다. 구체적으로 본 연구는 LDA 토픽모델링과 기술수용모형을 통해 사용자 리뷰를 서비스와 기술 토픽으로 분류하여 효과적으로 분석할 수 있는 새로운 방법을 제시하였다는 점에서 의의가 있다. 또한 본 연구의 결과는 향후 소셜커머스와 오픈마켓의 경쟁 및 벤치마킹 전략에 중요하게 활용될 수 있을 것으로 기대된다.

인공지능을 이용한 신규간호사 이직률 예측 (Artificial Intelligence to forecast new nurse turnover rates in hospital)

  • 최주희;박혜경;박지은;이창민;최병관
    • 한국융합학회논문지
    • /
    • 제9권9호
    • /
    • pp.431-440
    • /
    • 2018
  • 본 연구에서는 인공지능 기술 중 구글에서 개발하여 오픈소스로 제공하고 있는 텐서플로우(Tensorflow) 활용하여 신규간호사 이직률을 예측해 보았고, 이를 통해 전략적 인적자원관리 방안을 제시하였다. 부산지역 한 대학병원의 2010년에서 2017년 사이 퇴직한 간호사 데이터 1,018건을 수집하였다. 학습에 사용된 자료는 순서를 임의로 재배열 한 뒤 전체 데이터의 80%를 학습에, 나머지 20%를 테스트에 이용하였다. 활용된 알고리즘은 다중신경망회로(multiple neural network)로서 입력층과 출력층, 3개 층의 은닉층을 가지도록 설계 되었다. 본 연구의 결과 텐서플로우 플랫폼을 활용하여 1년 이내 이직률을 88.7%, 3년 이내 조기 이직률은 79.8%의 정확도로 예측하였고, 대상자들의 퇴직 시 연령은 20대 후반부터 30대에 집중되어 있었다. 가장 높은 빈도를 차지한 이직 사유로는 '결혼, 출산, 육아, 가정 및 개인사정'이었으나, 근무기간 1년 이하 대상자 들의 가장 높은 이직사유는 '업무 부적응 및 대인관계 문제'로 나타났다.

KOMUChat : 인공지능 학습을 위한 온라인 커뮤니티 대화 데이터셋 연구 (KOMUChat: Korean Online Community Dialogue Dataset for AI Learning)

  • 유용상;정민화;이승민;송민
    • 지능정보연구
    • /
    • 제29권2호
    • /
    • pp.219-240
    • /
    • 2023
  • 사용자가 만족감을 느끼며 상호작용할 수 있는 대화형 인공지능을 개발하기 위한 노력이 이어지고 있다. 대화형 인공지능 개발을 위해서는 사람들의 실제 대화를 반영한 학습 데이터를 구축하는 것이 필요하지만, 기존 데이터셋은 질문-답변 형식이 아니거나 존대어를 사용하여 사용자가 친근감을 느끼기 어려운 문체로 구성되어 있다. 이에 본 논문은 온라인 커뮤니티에서 수집한 30,767개의 질문-답변 문장 쌍으로 구성된 대화 데이터셋(KOMUChat)을 구축하여 제안한다. 본 데이터셋은 각각 남성, 여성이 주로 이용하는 연애상담 게시판의 게시물 제목과 첫 번째 댓글을 질문-답변으로 수집하였다. 또한, 자동 및 수동 정제 과정을 통해 혐오 데이터 등을 제거하여 양질의 데이터셋을 구축하였다. KOMUChat의 타당성을 검증하기 위해 언어 모델에 본 데이터셋과 벤치마크 데이터셋을 각각 학습시켜 비교분석하였다. 그 결과 답변의 적절성, 사용자의 만족감, 대화형 인공지능의 목적 달성 여부에서 KOMUChat이 벤치마크 데이터셋의 평가 점수를 상회했다. 본 연구는 지금까지 제시된 오픈소스 싱글턴 대화형 텍스트 데이터셋 중 가장 대규모의 데이터이며 커뮤니티 별 텍스트 특성을 반영하여 보다 친근감있는 한국어 데이터셋을 구축하였다는 의의를 가진다.

지식 생성 및 활용을 위한 지식 커뮤니티 효과 분석 (Analysis of Knowledge Community for Knowledge Creation and Use)

  • 허준혁;이정승
    • 지능정보연구
    • /
    • 제16권4호
    • /
    • pp.85-97
    • /
    • 2010
  • 지식의 생성과 활용의 원천으로서 인터넷 커뮤니티를 '지식 커뮤니티'로 정의할 때 지식 커뮤니티는 '검색엔진', '공개공동체', '전문공동체', '활동공동체'의 4대 유형으로 구분되며 개별 지식 커뮤니티는 시간이나 환경의 변화에 따라 각 유형을 넘나들며 변화하고 있다. 변화하는 지식 커뮤니티를 기업경영에 적절하게 활용하기 위해서는 각 지식 커뮤니티 유형별 활용전략이 절실함에도 불구하고, 지식 커뮤니티 유형별 효과 분석과 활용전략에 대한 연구는 많지 않다. 이에 본 연구에서는 지식 커뮤니티 유형별 분류에서 제안한 4대 지식 커뮤니티 유형에 대해 지식 생성 및 활용에 영향을 미치는 요인을 실증분석을 통해 도출함으로써 지식 커뮤니티의 변화를 설명하고 그 활용방안을 제시하고자 한다. 첫째, 관련 선행연구를 통해 지식 커뮤니티 유형별로 지식의 생성과 활용에 영향을 미치는 요인을 적합성, 신뢰성, 체계성, 충실성, 유사성, 피드백, 이해도로 파악하였다. 둘째, 유형별 대표사이트에 30개의 실제 질문을 질의하여 전문가의 평가를 통해 각 요인을 평가했다. 마지막으로 Stepwise 회귀분석을 이용해 각 유형별로 지식 커뮤니티의 지식 생성과 활용에 영향을 미치는 주요 요인을 도출했다. 회귀분석 결과 검색엔진 유형의 지식 커뮤니티는 신뢰성과, 공개 공동체 유형은 적합성과, 전문공동체 유형은 신뢰성 및 유사성과, 활동공동체 유형은 충실성 및 유사성과 높은 상관관계가 있었다. 본 연구에서 제시한 지식 커뮤니티 유형별 영향요인에 대한 실증분석 결과는 지식 커뮤니티의 변화를 설명하고 그 활용방안을 제시하는데 유용할 것으로 기대된다.

효과적인 지식확장을 위한 LOD 클라우드에서의 변화수용적 심층검색 (Change Acceptable In-Depth Searching in LOD Cloud for Efficient Knowledge Expansion)

  • 김광민;손용락
    • 지능정보연구
    • /
    • 제24권2호
    • /
    • pp.171-193
    • /
    • 2018
  • 본 연구는 시멘틱 웹의 실질적 구현체인 LOD 클라우드에서 연결정책을 활용함으로써 LOD들간 연결을 효과적으로 제공하고 LOD의 변경된 내용을 검색결과에 빠짐없이 반영할 수 있는 방안을 제시한다. 현재 LOD 클라우드에서는 개체간 연결은 를 이용하여 개체들이 동일함을 명시적으로 기술하는 방식으로 이루어져 있다. 하지만, 이러한 명시적 연결방식은 LOD 클라우드 규모의 방대함에도 불구하고 개체간 동일성을 개체단위에서 파악하여야 하는 어려움이 있으며 주기적으로 LOD에 추가하여야 함에 따라 검색 시 개체들이 누락되는 한계가 있다. 이를 극복하기 위하여 본 연구에서는 명시적 연결을 생성하는 대신 LOD별로 연결하고자 하는 LOD와의 연결정책을 수립하여 LOD와 함께 공개하는 방식을 제안한다. 연결정책을 활용함으로써 연결하여야 할 동일개체를 검색시점에서 파악할 수 있으므로 추가되었던 개체들을 누락됨 없이 검색결과에 포함시킬 수 있고 LOD 클라우드에서의 연결성도 효과적으로 확충할 수 있다. 확충된 연결성은 정보의 지능적 처리의 선행과정인 지식확장의 근간이 된다. 연결정책은 연결하고자 하는 소스와 타겟 LOD의 주어 개체들간의 동일성을 평가하는데 도움이 되는 술어 쌍을 명세하는 방식으로 수립하며 검색 시 이러한 술어쌍에 대응하는 RDF 트리플을 검색하고 이들의 목적어들이 충분히 동일한 것인가를 평가하여 주어개체들의 동일수준을 판단한다. 본 연구에서는 이러한 연결정책을 이용하여 여러 LOD들을 심층적으로 검색하는 시스템을 구현하였다. 검색과정에서는 기존 명시적 연결들도 함께 활용하도록 구현하였다. 검색시스템에 대한 실험은 DBpedia의 주요 LOD들을 대상으로 진행하였다. 실험결과 연결대상 개체들의 목적어들이 0.8 ~ 0.9의 유사수준을 가지는 경우 적정한 확장성을 가지고 충분히 신뢰적인 개체들을 적절하게 포함하는 것으로 확인하였다. 또한, 개체들은 8개 이상의 동일연결을 제공하여야 검색결과가 신뢰적으로 활용될 수 있을 것으로 파악되었다.

지식베이스 확장을 위한 멀티소스 비정형 문서에서의 정보 추출 시스템의 개발 (Development of Information Extraction System from Multi Source Unstructured Documents for Knowledge Base Expansion)

  • 최현승;김민태;김우주;신동욱;이용훈
    • 지능정보연구
    • /
    • 제24권4호
    • /
    • pp.111-136
    • /
    • 2018
  • 지식베이스를 구축하는 작업은 도메인 전문가가 온톨로지 스키마를 이해한 뒤, 직접 지식을 정제하는 수작업이 요구되는 만큼 비용이 많이 드는 활동이다. 이에, 도메인 전문가 없이 다양한 웹 환경으로부터 질의에 대한 답변 정보를 추출하기 위한 자동화된 시스템의 연구개발의 필요성이 제기되고 있다. 기존의 정보 추출 관련 연구들은 웹에 존재하는 다양한 형태의 문서 중 학습데이터와 상이한 형태의 문서에서는 정보를 효과적으로 추출하기 어렵다는 한계점이 존재한다. 또한, 기계 독해와 관련된 연구들은 문서에 정답이 있는 경우를 가정하고 질의에 대한 답변정보를 추출하는 경우로서, 문서의 정답포함 여부를 보장할 수 없는 실제 웹의 비정형 문서로부터의 정보추출에서는 낮은 성능을 보인다는 한계점이 존재한다. 본 연구에서는 지식베이스 확장을 위하여 웹에 존재하는 멀티소스 비정형 문서로부터 질의에 대한 정보를 추출하기 위한 시스템의 개발 방법론을 제안하고자 한다. 본 연구에서 제안한 방법론은 "주어(Subject)-서술어(Predicate)"로 구분된 질의에 대하여 위키피디아, 네이버 백과사전, 네이버 뉴스 3개 웹 소스로부터 수집된 비정형 문서로부터 관련 정보를 추출하며, 제안된 방법론을 적용한 시스템의 성능평가를 위하여, Wu and Weld(2007)의 모델을 베이스라인 모델로 선정하여 성능을 비교분석 하였다. 연구결과 제안된 모델이 베이스라인 모델에 비해, 위키피디아, 네이버 백과사전, 네이버 뉴스 등 다양한 형태의 문서에서 정보를 효과적으로 추출하는 강건한 모델임을 입증하였다. 본 연구의 결과는 현업 지식베이스 관리자에게 지식베이스 확장을 위한 웹에서 질의에 대한 답변정보를 추출하기 위한 시스템 개발의 지침서로서 실무적인 시사점을 제공함과 동시에, 추후 다양한 형태의 질의응답 시스템 및 정보추출 연구로의 확장에 기여할 수 있을 것으로 기대한다.

소셜미디어 콘텐츠의 오피니언 마이닝결과 시각화: N라면 사례 분석 연구 (Visualizing the Results of Opinion Mining from Social Media Contents: Case Study of a Noodle Company)

  • 김유신;권도영;정승렬
    • 지능정보연구
    • /
    • 제20권4호
    • /
    • pp.89-105
    • /
    • 2014
  • Web2.0의 등장과 함께 급속히 발전해온 온라인 포럼, 블로그, 트위터, 페이스북과 같은 소셜 미디어 서비스는 소비자와 소비자간의 의사소통을 넘어 이제 기업과 소비자 사이의 새로운 커뮤니케이션 매체로도 인식되고 있다. 때문에 기업뿐만 아니라 수많은 기관, 조직 등에서도 소셜미디어를 활용하여 소비자와 적극적인 의사소통을 전개하고 있으며, 나아가 소셜 미디어 콘텐츠에 담겨있는 소비자 고객들의 의견, 관심, 불만, 평판 등을 분석하고 이해하며 비즈니스에 적용하기 위해 이를 적극 분석하는 단계로 진화하고 있다. 이러한 연구의 한 분야로서 비정형 텍스트 콘텐츠와 같은 빅 데이터에서 저자의 감성이나 의견 등을 추출하는 오피니언 마이닝과 감성분석 기법이 소셜미디어 콘텐츠 분석에도 활발히 이용되고 있으며, 이미 여러 연구에서 이를 위한 방법론, 테크닉, 툴 등을 제시하고 있다. 그러나 아직 대량의 소셜미디어 데이터를 수집하여 언어처리를 거치고 의미를 해석하여 비즈니스 인사이트를 도출하는 전반의 과정을 제시한 연구가 많지 않으며, 그 결과를 의사결정자들이 쉽게 이해할 수 있는 시각화 기법으로 풀어내는 것 또한 드문 실정이다. 그러므로 본 연구에서는 소셜미디어 콘텐츠의 오피니언 마이닝을 위한 실무적인 분석방법을 제시하고 이를 통해 기업의사결정을 지원할 수 있는 시각화된 결과물을 제시하고자 하였다. 이를 위해 한국 인스턴트 식품 1위 기업의 대표 상품인 N-라면을 사례 연구의 대상으로 실제 블로그 데이터와 뉴스를 수집/분석하고 결과를 도출하였다. 또한 이런 과정에서 프리웨어 오픈 소스 R을 이용함으로써 비용부담 없이 어떤 조직에서도 적용할 수 있는 레퍼런스를 구현하였다. 그러므로 저자들은 본 연구의 분석방법과 결과물들이 식품산업뿐만 아니라 타 산업에서도 바로 적용 가능한 실용적 가이드와 참조자료가 될 것으로 기대한다.

국제테러리즘데이터베이스 구축: 미국의 START 센터의 모범사례의 소개 (Introducing Best Model of Global Terrorism Database: The Case of START Center in the U.S.)

  • 김은영;박선영
    • 시큐리티연구
    • /
    • 제35호
    • /
    • pp.7-36
    • /
    • 2013
  • 국제테러리즘데이터베이스의 구축은 일반범죄데이터베이스 구축에 비해서 형사사법기관 및 관련업무자들과 범죄학자들에게도 어려운 도전이 되는 일이다. 그러나 국제적인 단위의 테러리즘에 관한 데이터를 수집하여 분석 및 연구에 활용할 수 있는 형태의 종합적인 데이터베이스구축에 대한 관심과 노력이 점점 더 증대되고 있다. 이에 따라서 이 연구는 미국의 메릴랜드대학 내의 START 센터에서 구축하여온 GTD 데이터베이스의 시작과 발달과정에 대해 소개하고자 한다. GTD는 START 센터가 핑커단의 세계정보서비스데이터(PGIS)를 기반으로 인터넷을 비롯한 다양한 공개출처의 데이터를 수집하는 형식으로 현재까지 지속적으로 발전시켜오고 있는 세계 테러리즘 데이터베이스이다. 이 연구에서는 특히 GTD 데이터의 발전과정과 이 GTD 데이터의 수집된 내용(변수 및 데이터의 수집규모 등), 그리고 데이터의 수집과정에서 나타난 다양한 노력들에 대해서 소개 하고자하였다. 이를 위해서 GTD 데이터를 사용하여 지역 및 나라별 테러현황 및 분포 등에 대한 내용을 기술적 및 시계열적으로 분석한 내용을 제시하였다. 이러한 GTD의 소개를 통해서 국내의 국제테러리즘데이터베이스의 구축의 필요성과 방향 및 구체적인 수행을 위한 구체적인 사례를 소개하여 국내에서의 세계테러리즘데이터베이스의 구축에 이바지하고자 한다. 이연구의 공헌점, 정책적 함의 그리고 제한점 등이 논의에 거론되었다.

  • PDF

Hi, KIA! 기계 학습을 이용한 기동어 기반 감성 분류 (Hi, KIA! Classifying Emotional States from Wake-up Words Using Machine Learning)

  • 김태수;김영우;김근형;김철민;전형석;석현정
    • 감성과학
    • /
    • 제24권1호
    • /
    • pp.91-104
    • /
    • 2021
  • 본 연구에서는 승용차에서 사람들이 기기를 사용하기 위해 사용하는 기동어인 "Hi, KIA!"의 감성을 기계학습을 기반으로 분류가 가능한가에 대해 탐색하였다. 감성 분류를 위해 신남, 화남, 절망, 보통 총 4가지 감정별로 3가지 시나리오를 작성하여, 자동차 운전 상황에서 발생할 수 있는 12가지의 사용자 감정 시나리오를 제작하였다. 시각화 자료를 기반으로 총 9명의 대학생을 대상으로 녹음을 진행하였다. 수집된 녹음 파일의 전체 문장에서 기동어 부분만 별도로 추출하는 과정을 거쳐, 전체 문장 파일, 기동어 파일 총 두 개의 데이터 세트로 정리되었다. 음성 분석에서는 음향 특성을 추출하고 추출된 데이터를 svmRadial 방법을 이용하여 기계 학습 기반의 알고리즘을 제작해, 제작된 알고리즘의 감정 예측 정확성 및 가능성을 파악하였다. 9명의 참여자와 4개의 감정 카테고리를 통틀어 기동어의 정확성(60.19%: 22~81%)과 전체 문장의 정확성(41.51%)을 비교했다. 또한, 참여자 개별로 정확도와 민감도를 확인하였을 때, 성능을 보임을 확인하였으며, 각 사용자 별 기계 학습을 위해 선정된 피쳐들이 유사함을 확인하였다. 본 연구는 기동어만으로도 사용자의 감정 추출과 보이스 인터페이스 개발 시 기동어 감정 파악 기술이 잠재적으로 적용 가능한데 대한 실험적 증거를 제공할 수 있을 것으로 기대한다.

토픽 모델링을 이용한 트위터 이슈 트래킹 시스템 (Twitter Issue Tracking System by Topic Modeling Techniques)

  • 배정환;한남기;송민
    • 지능정보연구
    • /
    • 제20권2호
    • /
    • pp.109-122
    • /
    • 2014
  • 현재 우리는 소셜 네트워크 서비스(Social Network Service, 이하 SNS) 상에서 수많은 데이터를 만들어 내고 있다. 특히, 모바일 기기와 SNS의 결합은 과거와는 비교할 수 없는 대량의 데이터를 생성하면서 사회적으로도 큰 영향을 미치고 있다. 이렇게 방대한 SNS 데이터 안에서 사람들이 많이 이야기하는 이슈를 찾아낼 수 있다면 이 정보는 사회 전반에 걸쳐 새로운 가치 창출을 위한 중요한 원천으로 활용될 수 있다. 본 연구는 이러한 SNS 빅데이터 분석에 대한 요구에 부응하기 위해, 트위터 데이터를 활용하여 트위터 상에서 어떤 이슈가 있었는지 추출하고 이를 웹 상에서 시각화 하는 트위터이슈 트래킹 시스템 TITS(Twitter Issue Tracking System)를 설계하고 구축 하였다. TITS는 1) 일별 순위에 따른 토픽 키워드 집합 제공 2) 토픽의 한달 간 일별 시계열 그래프 시각화 3) 토픽으로서의 중요도를 점수와 빈도수에 따라 Treemap으로 제공 4) 키워드 검색을 통한 키워드의 한달 간 일별 시계열 그래프 시각화의 기능을 갖는다. 본 연구는 SNS 상에서 실시간으로 발생하는 빅데이터를 Open Source인 Hadoop과 MongoDB를 활용하여 분석하였고, 이는 빅데이터의 실시간 처리가 점점 중요해지고 있는 현재 매우 주요한 방법론을 제시한다. 둘째, 문헌정보학 분야뿐만 아니라 다양한 연구 영역에서 사용하고 있는 토픽 모델링 기법을 실제 트위터 데이터에 적용하여 스토리텔링과 시계열 분석 측면에서 유용성을 확인할 수 있었다. 셋째, 연구 실험을 바탕으로 시각화와 웹 시스템 구축을 통해 실제 사용 가능한 시스템으로 구현하였다. 이를 통해 소셜미디어에서 생성되는 사회적 트렌드를 마이닝하여 데이터 분석을 통한 의미 있는 정보를 제공하는 실제적인 방법을 제시할 수 있었다는 점에서 주요한 의의를 갖는다. 본 연구는 JSON(JavaScript Object Notation) 파일 포맷의 1억 5천만개 가량의 2013년 3월 한국어 트위터 데이터를 실험 대상으로 한다.