• 제목/요약/키워드: 그래프 검색

검색결과 226건 처리시간 0.024초

멀티모달 방법론과 텍스트 마이닝 기반의 뉴스 비디오 마이닝 (A News Video Mining based on Multi-modal Approach and Text Mining)

  • 이한성;임영희;유재학;오승근;박대희
    • 한국정보과학회논문지:데이타베이스
    • /
    • 제37권3호
    • /
    • pp.127-136
    • /
    • 2010
  • 정보 통신기술이 발전함에 따라 멀티미디어 데이터를 포함하는 디지털 기록물의 양은 기하급수적으로 증가하고 있다. 특히 뉴스 비디오는 시대상을 반영하는 풍부한 정보를 내포하고 있으므로, 이를 효과적으로 관리하고 분석하기 위한 뉴스 비디오 데이터베이스 및 뉴스 비디오 마이닝은 광범위하게 연구되어왔다. 그러나 현재까지의 뉴스 비디오 관련 연구들은 뉴스 기사에 대한 브라우징, 검색, 요약에 치중되어 있으며, 뉴스 비디오에 내재되어 있는 풍부한 잠재적 지식을 탐사하는 고수준의 의미 분석 단계에는 이르지 못하고 있다. 본 논문에서는 뉴스 비디오 클립과 스크립트를 동시에 이용하는, 멀티모달 방법론과 텍스트 마이닝 기반의 뉴스 비디오 마이닝 시스템을 제안한다. 제안된 시스템은 텍스트 마이닝의 군집분석을 통해 뉴스 기사들을 자동 분류하고, 분류 결과에 대해 기간별 군집 추이그래프, 군집성장도 분석 및 네트워크 분석을 수행함으로써, 뉴스 비디오의 기사별 주제와 관련한 다각적 분석을 수행한다. 제안된 시스템의 타당성 검증을 위하여 "2007년 제2차 남북 정상회담" 관련 뉴스 비디오를 대상으로 뉴스 비디오 분석을 수행하였다.

퍼지 클러스터링을 이용한 다중 스펙트럼 자기공명영상의 분할 (Segmentation of Multispectral MRI Using Fuzzy Clustering)

  • 윤옥경;김현순;곽동민;김범수;김동휘;변우목;박길흠
    • 대한의용생체공학회:의공학회지
    • /
    • 제21권4호
    • /
    • pp.333-338
    • /
    • 2000
  • 본 논문에서는 T1 강조영상, T2 강조 영상 그리고 PD의 영상의 특징을 상호 보완적으로 이용한 자동적인 영상 분할법을 제안한다. 제안한 분할 알고리듬은 3단계로 이루어지는데, 첫 단계에서는 PD 영상으로부터 대뇌 마스크를 획득한 후, T1과 T2, PD의 입력 영상에 대뇌 마스크를 씌워 각각의 대뇌 영상을 추출하고, 둘째 단계에서는 대뇌 내부 조직에 해당하는 두드러진 클러스터(outstanding cluster)를 3차원 클러스터들 중에서 선택한다. 3차원 클러스터는 최적스케일 영상(optimal scale image)으로 이루어지는 3차원 공간상에서 화소가 밀집된 봉우리들을 교집합해서 생성되는 클러스터로 결정한다. 최적스케일 영상은 각 2타원 히스토그램에 스케일 스페이스 필터링을 적용시키고 그래프(graph) 구조를 검색하여 2차원 히스토그램의 모양을 가장 잘 나타내는 봉우리(peak) 영상을 최적 스케일 영상으로 선택한다. 마지막 단계에서는 앞에서 찾은 두드러진 클러스터의 중심값을 FCM 알고리듬의 초기중심 값으로 두고, FCM 알고리듬을 이용하여 대뇌 영상을 분할한다. 제안한 분할 알고리듬은 정확한 클러스터의 중심값을 계산함으로 초기 값을 영향을 많이 받는 FCM 알고리듬의 단점을 보완하였고 다중 스펙트럼 영상의 특성을 조합하여 분할에 이용함으로 단일 스펙트럼 영상만을 이용하는 방법보다 향상된 결과를 얻을 수 있었다.

  • PDF

키워드 출현 빈도 분석과 CONCOR 기법을 이용한 ICT 교육 동향 분석 (Analysis of ICT Education Trends using Keyword Occurrence Frequency Analysis and CONCOR Technique)

  • 이영석
    • 산업융합연구
    • /
    • 제21권1호
    • /
    • pp.187-192
    • /
    • 2023
  • 본 연구는 기계학습의 키워드 출현 빈도 분석과 CONCOR(CONvergence of iteration CORrealtion) 기법을 통한 ICT 교육에 대한 흐름을 탐색한다. 2018년부터 현재까지의 등재지 이상의 논문을 'ICT 교육'의 키워드로 구글 스칼라에서 304개 검색하였고, 체계적 문헌 리뷰 절차에 따라 ICT 교육과 관련이 높은 60편의 논문을 선정하면서, 논문의 제목과 요약을 중심으로 키워드를 추출하였다. 단어 빈도 및 지표 데이터는 자연어 처리의 TF-IDF를 통한 빈도 분석, 동시 출현 빈도의 단어를 분석하여 출현 빈도가 높은 49개의 중심어를 추출하였다. 관계의 정도는 단어 간의 연결 구조와 연결 정도 중심성을 분석하여 검증하였고, CONCOR 분석을 통해 유사성을 가진 단어들로 구성된 군집을 도출하였다. 분석 결과 첫째, '교육', '연구', '결과', '활용', '분석'이 주요 키워드로 분석되었다. 둘째, 교육을 키워드로 N-GRAM 네트워크 그래프를 진행한 결과 '교육과정', '활용'이 가장 높은 단어의 관계로 나타났다. 셋째, 교육을 키워드로 군집분석을 한 결과, '교육과정', '프로그래밍', '학생', '향상', '정보'의 5개 군이 형성되었다. 이러한 연구 결과를 바탕으로 ICT 교육 동향의 분석 및 트렌드 파악을 토대로 ICT 교육에 필요한 실질적인 연구를 수행할 수 있을 것이다.

셋톱박스 오디언스 타겟팅을 위한 세션 기반 개인화 추천 시스템 개발 (Personalized Session-based Recommendation for Set-Top Box Audience Targeting)

  • 차지수;정구섭;김우영;양재원;백상덕;이원준;장서호;박태준;정찬우;김우주
    • 지능정보연구
    • /
    • 제29권2호
    • /
    • pp.323-338
    • /
    • 2023
  • 셋톱박스 오디언스(TV 시청자) 타겟팅의 핵심은 오디언스의 시청패턴을 분석하여 광고의 효과성이 높을 것으로 예상되는 오디언스에게 맞춤형 광고를 내보내는 것이다. 세션 기반 추천 시스템은 인터넷 광고 추천, 유저 검색 기록 기반 추천 등에 많이 이용되고 있지만, TV 광고의 측면에서 셋톱박스 데이터 수집의 어려움을 이유로 연구하기에 어려움이 있었다. 또한 오디언스 개인의 식별정보가 있는 데이터에서, 오디언스의 선호가 반영되는 시청 패턴을 모델링하는 데 한계가 있었다. 따라서 본 연구에서는 한국방송광고진흥공사(KOBACO)와 방송3사(SKB, KT, LGU+)와의 협업을 통해 익명화된 오디언스 4,847명의 6개월간 시청 데이터를 확보하여 연구를 진행하였으며, 유저-세션-아이템의 계층적 구조를 가지는 개인화 세션 기반 추천 시스템을 개발하여 성능 검증을 진행하였다. 그 결과, 셋톱박스 오디언스 데이터셋과 그 외 검증을 위한 2개의 데이터셋에서 제안된 모델이 비교 대상 모델보다 높은 성능을 보이는 것을 확인하였다.

토픽 모델링을 이용한 트위터 이슈 트래킹 시스템 (Twitter Issue Tracking System by Topic Modeling Techniques)

  • 배정환;한남기;송민
    • 지능정보연구
    • /
    • 제20권2호
    • /
    • pp.109-122
    • /
    • 2014
  • 현재 우리는 소셜 네트워크 서비스(Social Network Service, 이하 SNS) 상에서 수많은 데이터를 만들어 내고 있다. 특히, 모바일 기기와 SNS의 결합은 과거와는 비교할 수 없는 대량의 데이터를 생성하면서 사회적으로도 큰 영향을 미치고 있다. 이렇게 방대한 SNS 데이터 안에서 사람들이 많이 이야기하는 이슈를 찾아낼 수 있다면 이 정보는 사회 전반에 걸쳐 새로운 가치 창출을 위한 중요한 원천으로 활용될 수 있다. 본 연구는 이러한 SNS 빅데이터 분석에 대한 요구에 부응하기 위해, 트위터 데이터를 활용하여 트위터 상에서 어떤 이슈가 있었는지 추출하고 이를 웹 상에서 시각화 하는 트위터이슈 트래킹 시스템 TITS(Twitter Issue Tracking System)를 설계하고 구축 하였다. TITS는 1) 일별 순위에 따른 토픽 키워드 집합 제공 2) 토픽의 한달 간 일별 시계열 그래프 시각화 3) 토픽으로서의 중요도를 점수와 빈도수에 따라 Treemap으로 제공 4) 키워드 검색을 통한 키워드의 한달 간 일별 시계열 그래프 시각화의 기능을 갖는다. 본 연구는 SNS 상에서 실시간으로 발생하는 빅데이터를 Open Source인 Hadoop과 MongoDB를 활용하여 분석하였고, 이는 빅데이터의 실시간 처리가 점점 중요해지고 있는 현재 매우 주요한 방법론을 제시한다. 둘째, 문헌정보학 분야뿐만 아니라 다양한 연구 영역에서 사용하고 있는 토픽 모델링 기법을 실제 트위터 데이터에 적용하여 스토리텔링과 시계열 분석 측면에서 유용성을 확인할 수 있었다. 셋째, 연구 실험을 바탕으로 시각화와 웹 시스템 구축을 통해 실제 사용 가능한 시스템으로 구현하였다. 이를 통해 소셜미디어에서 생성되는 사회적 트렌드를 마이닝하여 데이터 분석을 통한 의미 있는 정보를 제공하는 실제적인 방법을 제시할 수 있었다는 점에서 주요한 의의를 갖는다. 본 연구는 JSON(JavaScript Object Notation) 파일 포맷의 1억 5천만개 가량의 2013년 3월 한국어 트위터 데이터를 실험 대상으로 한다.

인공지능 기술에 관한 가트너 하이프사이클의 네트워크 집단구조 특성 및 확산패턴에 관한 연구 (Structural features and Diffusion Patterns of Gartner Hype Cycle for Artificial Intelligence using Social Network analysis)

  • 신선아;강주영
    • 지능정보연구
    • /
    • 제28권1호
    • /
    • pp.107-129
    • /
    • 2022
  • 기술경쟁이 심화되고 있는 오늘날 신기술에 대한 선도적 위치의 선점이 중요하다. 선도적 위치의 선점과 적정시점에 기술 획득·관리를 위해 이해관계자들은 지속적으로 기술에 대한 탐색활동을 수행한다. 이를 위한 참고 자료로서 가트너 하이프 사이클(Gartner Hype Cycle)은 중요한 의미가 있다. 하이프 사이클은 기술수명주기(S-curve)와 하이프 수준(Hype Level)을 결합하여 새로운 기술에 대한 대중의 기대감을 시간의 흐름에 따라 나타낸 그래프이다. 새로운 기술에 대한 기대는 기술사업화뿐만 아니라 연구개발 투자의 정당성, 투자유치를 위한 기회의 발판이 된다는 점에서 연구개발 담당자 및 기술투자자의 관심이 높다. 그러나 산업계의 높은 관심에 비해 실증분석을 시도한 선행연구는 다양하지 못하다. 선행문헌 분석결과 데이터 종류(뉴스, 논문, 주가지수, 검색 트래픽 등)나 분석방법은 한정적이었다. 이에 본 연구에서는 확산의 주요한 채널이 되어가고 있는 소셜네트워크서비스의 데이터를 활용하여 'Gartner Hype Cycle for Artificial Intelligence, 2021'의 단계별 기술들에 대한 집단구조(커뮤니티)의 특성과 커뮤니티 간 정보 확산패턴을 분석하고자 한다. 이를 위해 컴포넌트 응집규모(Component Cohesion Size)를 통해 각 단계별 구조적 특성과 연결중심화(Degree Centralization)와 밀도(Density)를 통해 확산의 방식을 확인하였다. 연구결과 기술을 수용하는 단계별 집단들의 커뮤니케이션 활동이 시간이 지날 수록 분절이 커지며 밀도 역시 감소함을 확인하였다. 또한 새로운 기술에 대한 관심을 촉발하는 혁신태동기 집단의 경우 정보확산을 촉발하는 외향연결(Out-degree) 중심화 지수가 높았으며, 이후의 단계는 정보를 수용하는 내향연결(In-degree) 중심화 지수가 높은 것으로 나타났다. 해당 연구를 통해 하이프 사이클에 관한 이론적 기초를 제공할 것이다. 또한 인공지능기술에 대한 기술관심집단들의 기대감을 반영한 정보확산의 특성과 패턴을 소셜데이터를 통해 분석함으로써 기업의 기술투자 의사결정에 새로운 시각을 제공할 것이다.