• 제목/요약/키워드: Analysts

검색결과 386건 처리시간 0.024초

예비유니콘 선정기업의 이익조정에 대한 연구 (Earnings Management of Firms Selected as Preliminary Unicorn)

  • 한학준;양동훈
    • 벤처창업연구
    • /
    • 제18권1호
    • /
    • pp.173-188
    • /
    • 2023
  • 본 연구는 예비유니콘 선정기업을 대상으로 선정시점에 대한 이익조정을 분석하였다. 경영자는 예비 유니콘기업에 선정되면 최대 200억원에 달하는 금융지원을 받을 수 있어 이익조정의 유인이 생긴다. 경영자에게 이익조정의 동기에는 자본시장과 관련된 동기가 있는데 회계정보는 투자자와 재무분석가에게 이용이 되고 기업의 이익은 기업가치에 영향을 주고 있다. 따라서 회계 이익을 상향으로 조정하면 기업가치가 상향되어 투자조건이 유리하게 된다. 본 연구에서는 이익의 질은 대체적인 발생액 예측모형을 이용하여 추정된 재량적 발생액 중에서 Dechow et al.(1995)에 의한 수정 Jones모형 및 Kothari et al.(2005)에 의한 성과대응모형으로 측정하였다. 선정기업과 동일시장에서 경쟁할 것을 예상되는 유사한 대응기업을 구성하여 재량적발생액을 상호 비교하여 연구가설을 검증하고 선정기업만을 대상으로 심사년도와 심사년도 이후를 분석하였다. 분석 결과 예비유니콘 선정기업이 대응기업과 비교하여 이익조정이 높은 것으로 나타나서 회계 이익의 질에 부정적인 영향을 주는 것을 알 수 있었다. 그리고 선행연구에서와 다르게 선정후에도 이익의 질이 낮은 것으로 나타나서 예비유니콘 선정기업은 선정 후에도 경영자의 이익조정의 유인이 계속 지속되는 것을 알 수 있었다. 본 연구를 통해 예비유니콘 선정기업은 기업의 내부 성장보다는 기업의 외형 성장을 통해 시장에서의 가치를 인정받아서 외부 투자자로부터 유리한 조건의 투자를 유치하기 위한 경영자에게 이익조정의 유인이 지속되고 있는 것으로 분석되었으며 향후 예비유니콘 선정평가에서 회계 이익의 질에 대한 검토가 필요한 것을 제시할 수 있었다. 본 연구의 시사점은 경영자의 이익조정 유인이 결국 투자자나 채권자로 하여금 회계정보의 신뢰성을 판단하는데 저해가 되고 있어 이러한 경영자의 이익조정에 대한 것을 감안하여 예비유니콘기업 선정평가에 있어서 회계정보의 투명성과 신뢰성을 높이는 K-유니콘 프로젝트의 정책대안으로 재량적발생액을 통한 이익의 질에 대한 평가를 반영하여 이익조정을 예방할 것을 시사하고 있다.

  • PDF

강도 범죄의 실태 및 대구 지역 침입 강도 범죄 분석 (Actual Conditions of Burglaries and Analysis on Residential Invasion Burglaries in Daegu Area)

  • 이상호;곽정식
    • 대한수사과학회지
    • /
    • 제2권2호
    • /
    • pp.5-20
    • /
    • 2007
  • 2001년부터 2005년까지 5년 동안 우리나라에서 발생한 강도사건은 모두 29,892 건으로 연 평균 약 5,978 건이 발생하였는데, 그 분석결과를 요약하면 다음과 같다. 수법은 침입강도가 8,605 건(28.8%)으로 가장 많았고, 침입구는 출입문이 4,031 건(64.3%)으로 가장 많았으며, 침입 방법은 문단속이 없는 출입문이나 창문을 통하여 침입한 것이 2,462 건(28.6%)으로 가장 많았고, 발생시간은 심야시간대 (00:00~04:00사이)가 가장 많았으며, 요일별로 보면 수요일이 5,652건으로, 일요일(2,988건)의 약 2 배가량 많이 발생한 것으로 나타났다. 강도범죄로 인해 신체적 피해를 입은 피해자는 사망 260 명, 상해 10,610 명으로 나타났으며, 발생장소는 노상(路上)이 10,183건(34%)으로 가장 많았고, 그 다음이 주거지로서 7,527 건(약25%)이 발생한 것으로 나타났다. 공범관계는 단독범이 15,012 명(56.1%)으로 가장 많았고, 범행시 범행도구는 소지하지 않음이 15,631건(58.4%)으로 가장 많았으나, 소지한 범행도구 중에는 칼이 6,498 건(24.3%)으로 가장 많았다. 2001년부터 2006년까지 6년 동안 대구지역에서 발생한 강도범죄는 모두 1,506 건으로 연평균 251 건이었으며, 이중 침입강도 사건은 515 건(34.2%)으로 연평 균 약 86 건이 발생하였는데, 발생시간은 역시 심야시간대(00:00~04:00사이)에서 가장 많이 발생(194 건, 37.7%)하였고, 침입 장소는 주거지(259 건, 50.3%)가 가장 많았으며, 침입구는 출입문(87 건, 33.6%)이 가장 많았고, 침입방법은 문단속이 없는 출입문이나 창문으로 침입한 것이(65 건, 25.1%) 가장 많은 것으로 나타났다. 그 외에 택배원 등 방문자로 가장하거나 피해자를 뒤따라 침입하는 수법도 26 건(10%)이 발생한 것으로 나타났다. 이러한 강도범죄 예방을 위해서는 국가적, 사회적 대책은 물론, 개인의 자위 방범활동도 상당히 중요한 부분을 차지한다는 것을 알 수 있었는데, 특히, 침입강도 범죄자가 시정되지 않은 출입문이나 창문을 통하여 가장 많이 침입한다는 분석결과를 볼 때 범죄예방에 대한 인식이나 노력이 많이 부족하다는 것을 알 수 있었다. 범죄예방을 위한 가장 기본적인 방법 중의 하나가 문단속이라는 사실을 모르는 사람이 없을 것임에도, 이러한 기본적인 방법조차 실행하지 않아 강도범죄의 피해자가 된다는 것이 그것을 뜻한다. 따라서 본 연구에서 나타난 강도범죄의 실태를 참고하여 범죄예방에 대한 관심을 가짐으로써 강도범죄의 피해자가 한 사람이라도 줄어 들었으면 한다. 최근 과학수사에 대한 사회전반의 인식향상에 따라 경찰기관에서도 범죄분석요원, 피해자심리상담요원, 검시관 등을 특별채용하여 각 종 범죄분석 등 과학수사의 발전 기반이 마련되고 있다. 이를 토대로 범죄예방을 위한 심도있는 연구가 더욱 활발하게 이루어지기를 기대한다.

  • PDF

효과적인 입력변수 패턴 학습을 위한 시계열 그래프 기반 합성곱 신경망 모형: 주식시장 예측에의 응용 (A Time Series Graph based Convolutional Neural Network Model for Effective Input Variable Pattern Learning : Application to the Prediction of Stock Market)

  • 이모세;안현철
    • 지능정보연구
    • /
    • 제24권1호
    • /
    • pp.167-181
    • /
    • 2018
  • 지난 10여 년간 딥러닝(Deep Learning)은 다양한 기계학습 알고리즘 중에서 많은 주목을 받아 왔다. 특히 이미지를 인식하고 분류하는데 효과적인 알고리즘으로 알려져 있는 합성곱 신경망(Convolutional Neural Network, CNN)은 여러 분야의 분류 및 예측 문제에 널리 응용되고 있다. 본 연구에서는 기계학습 연구에서 가장 어려운 예측 문제 중 하나인 주식시장 예측에 합성곱 신경망을 적용하고자 한다. 구체적으로 본 연구에서는 그래프를 입력값으로 사용하여 주식시장의 방향(상승 또는 하락)을 예측하는 이진분류기로써 합성곱 신경망을 적용하였다. 이는 그래프를 보고 주가지수가 오를 것인지 내릴 것인지에 대해 경향을 예측하는 이른바 기술적 분석가를 모방하는 기계학습 알고리즘을 개발하는 과제라 할 수 있다. 본 연구는 크게 다음의 네 단계로 수행된다. 첫 번째 단계에서는 데이터 세트를 5일 단위로 나눈다. 두 번째 단계에서는 5일 단위로 나눈 데이터에 대하여 그래프를 만든다. 세 번째 단계에서는 이전 단계에서 생성된 그래프를 사용하여 학습용과 검증용 데이터 세트를 나누고 합성곱 신경망 분류기를 학습시킨다. 네 번째 단계에서는 검증용 데이터 세트를 사용하여 다른 분류 모형들과 성과를 비교한다. 제안한 모델의 유효성을 검증하기 위해 2009년 1월부터 2017년 2월까지의 약 8년간의 KOSPI200 데이터 2,026건의 실험 데이터를 사용하였다. 실험 데이터 세트는 CCI, 모멘텀, ROC 등 한국 주식시장에서 사용하는 대표적인 기술지표 12개로 구성되었다. 결과적으로 실험 데이터 세트에 합성곱 신경망 알고리즘을 적용하였을 때 로지스틱회귀모형, 단일계층신경망, SVM과 비교하여 제안모형인 CNN이 통계적으로 유의한 수준의 예측 정확도를 나타냈다.

완전성과 간결성을 고려한 텍스트 요약 품질의 자동 평가 기법 (Automatic Quality Evaluation with Completeness and Succinctness for Text Summarization)

  • 고은정;김남규
    • 지능정보연구
    • /
    • 제24권2호
    • /
    • pp.125-148
    • /
    • 2018
  • 다양한 스마트 기기 및 관련 서비스의 증가에 따라 텍스트 데이터가 폭발적으로 증가하고 있으며, 이로 인해 방대한 문서로부터 필요한 정보만을 추려내는 작업은 더욱 어려워졌다. 따라서 텍스트 데이터로부터 핵심 내용을 자동으로 요약하여 제공할 수 있는 텍스트 자동 요약 기술이 최근 더욱 주목을 받고 있다. 텍스트 요약 기술은 뉴스 요약 서비스, 개인정보 약관 요약 서비스 등을 통해 현업에서도 이미 활발하게 적용되고 있으며, 학계에서도 문서의 주요 요소를 선별하여 제공하는 추출(Extraction) 접근법과 문서의 요소를 발췌한 뒤 이를 조합하여 새로운 문장을 구성하는 생성(Abstraction) 접근법에 따라 많은 연구가 이루어지고 있다. 하지만 문서의 자동 요약 기술에 비해, 자동으로 요약된 문서의 품질을 평가하는 기술은 상대적으로 많은 진전을 이루지 못하였다. 요약문의 품질 평가를 다룬 기존의 대부분의 연구들은 사람이 수작업으로 요약문을 작성하여 이를 기준 문서(Reference Document)로 삼고, 자동 요약문과 기준 문서와의 유사도를 측정하는 방식으로 수행되었다. 하지만 이러한 방식은 기준 문서의 작성 과정에 막대한 시간과 비용이 소요될 뿐 아니라 요약자의 주관에 의해 평가 결과가 다르게 나타날 수 있다는 한계를 갖는다. 한편 이러한 한계를 극복하기 위한 연구도 일부 수행되었는데, 대표적으로 전문에 대해 차원 축소를 수행하고 이렇게 축소된 전문과 자동 요약문의 유사도를 측정하는 기법이 최근 고안된 바 있다. 이 방식은 원문에서 출현 빈도가 높은 어휘가 요약문에 많이 나타날수록 해당 요약문의 품질이 우수한 것으로 평가하게 된다. 하지만 요약이란 본질적으로 많은 내용을 줄여서 표현하면서도 내용의 누락을 최소화하는 것을 의미하므로, 단순히 빈도수에 기반한 "좋은 요약"이 항상 본질적 의미에서의 "좋은 요약"을 의미한다고 보는 것은 무리가 있다. 요약문 품질 평가의 이러한 기존 연구의 한계를 극복하기 위해, 본 연구에서는 요약의 본질에 기반한 자동 품질 평가 방안을 제안한다. 구체적으로 요약문의 문장 중 서로 중복되는 내용이 얼마나 적은지를 나타내는 요소로 간결성(Succinctness) 개념을 정의하고, 원문의 내용 중 요약문에 포함되지 않은 내용이 얼마나 적은지를 나타내는 요소로 완전성(Completeness)을 정의한다. 본 연구에서는 간결성과 완전성의 개념을 적용한 요약문 품질 자동 평가 방법론을 제안하고, 이를 TripAdvisor 사이트 호텔 리뷰의 요약 및 평가에 적용한 실험 결과를 소개한다.

토픽 모델링을 이용한 트위터 이슈 트래킹 시스템 (Twitter Issue Tracking System by Topic Modeling Techniques)

  • 배정환;한남기;송민
    • 지능정보연구
    • /
    • 제20권2호
    • /
    • pp.109-122
    • /
    • 2014
  • 현재 우리는 소셜 네트워크 서비스(Social Network Service, 이하 SNS) 상에서 수많은 데이터를 만들어 내고 있다. 특히, 모바일 기기와 SNS의 결합은 과거와는 비교할 수 없는 대량의 데이터를 생성하면서 사회적으로도 큰 영향을 미치고 있다. 이렇게 방대한 SNS 데이터 안에서 사람들이 많이 이야기하는 이슈를 찾아낼 수 있다면 이 정보는 사회 전반에 걸쳐 새로운 가치 창출을 위한 중요한 원천으로 활용될 수 있다. 본 연구는 이러한 SNS 빅데이터 분석에 대한 요구에 부응하기 위해, 트위터 데이터를 활용하여 트위터 상에서 어떤 이슈가 있었는지 추출하고 이를 웹 상에서 시각화 하는 트위터이슈 트래킹 시스템 TITS(Twitter Issue Tracking System)를 설계하고 구축 하였다. TITS는 1) 일별 순위에 따른 토픽 키워드 집합 제공 2) 토픽의 한달 간 일별 시계열 그래프 시각화 3) 토픽으로서의 중요도를 점수와 빈도수에 따라 Treemap으로 제공 4) 키워드 검색을 통한 키워드의 한달 간 일별 시계열 그래프 시각화의 기능을 갖는다. 본 연구는 SNS 상에서 실시간으로 발생하는 빅데이터를 Open Source인 Hadoop과 MongoDB를 활용하여 분석하였고, 이는 빅데이터의 실시간 처리가 점점 중요해지고 있는 현재 매우 주요한 방법론을 제시한다. 둘째, 문헌정보학 분야뿐만 아니라 다양한 연구 영역에서 사용하고 있는 토픽 모델링 기법을 실제 트위터 데이터에 적용하여 스토리텔링과 시계열 분석 측면에서 유용성을 확인할 수 있었다. 셋째, 연구 실험을 바탕으로 시각화와 웹 시스템 구축을 통해 실제 사용 가능한 시스템으로 구현하였다. 이를 통해 소셜미디어에서 생성되는 사회적 트렌드를 마이닝하여 데이터 분석을 통한 의미 있는 정보를 제공하는 실제적인 방법을 제시할 수 있었다는 점에서 주요한 의의를 갖는다. 본 연구는 JSON(JavaScript Object Notation) 파일 포맷의 1억 5천만개 가량의 2013년 3월 한국어 트위터 데이터를 실험 대상으로 한다.

전문성 이식을 통한 딥러닝 기반 전문 이미지 해석 방법론 (Deep Learning-based Professional Image Interpretation Using Expertise Transplant)

  • 김태진;김남규
    • 지능정보연구
    • /
    • 제26권2호
    • /
    • pp.79-104
    • /
    • 2020
  • 최근 텍스트와 이미지 딥러닝 기술의 괄목할만한 발전에 힘입어, 두 분야의 접점에 해당하는 이미지 캡셔닝에 대한 관심이 급증하고 있다. 이미지 캡셔닝은 주어진 이미지에 대한 캡션을 자동으로 생성하는 기술로, 이미지 이해와 텍스트 생성을 동시에 다룬다. 다양한 활용 가능성 덕분에 인공지능의 핵심 연구 분야 중 하나로 자리매김하고 있으며, 성능을 다양한 측면에서 향상시키고자 하는 시도가 꾸준히 이루어지고 있다. 하지만 이처럼 이미지 캡셔닝의 성능을 고도화하기 위한 최근의 많은 노력에도 불구하고, 이미지를 일반인이 아닌 분야별 전문가의 시각에서 해석하기 위한 연구는 찾아보기 어렵다. 동일한 이미지에 대해서도 이미지를 접한 사람의 전문 분야에 따라 관심을 갖고 주목하는 부분이 상이할 뿐 아니라, 전문성의 수준에 따라 이를 해석하고 표현하는 방식도 다르다. 이에 본 연구에서는 전문가의 전문성을 활용하여 이미지에 대해 해당 분야에 특화된 캡션을 생성하기 위한 방안을 제안한다. 구체적으로 제안 방법론은 방대한 양의 일반 데이터에 대해 사전 학습을 수행한 후, 소량의 전문 데이터에 대한 전이 학습을 통해 해당 분야의 전문성을 이식한다. 또한 본 연구에서는 이 과정에서 발생하게 되는 관찰간 간섭 문제를 해결하기 위해 '특성 독립 전이 학습' 방안을 제안한다. 제안 방법론의 실현 가능성을 파악하기 위해 MSCOCO의 이미지-캡션 데이터 셋을 활용하여 사전 학습을 수행하고, 미술 치료사의 자문을 토대로 생성한 '이미지-전문 캡션' 데이터를 활용하여 전문성을 이식하는 실험을 수행하였다. 실험 결과 일반 데이터에 대한 학습을 통해 생성된 캡션은 전문적 해석과 무관한 내용을 다수 포함하는 것과 달리, 제안 방법론에 따라 생성된 캡션은 이식된 전문성 관점에서의 캡션을 생성함을 확인하였다. 본 연구는 전문 이미지 해석이라는 새로운 연구 목표를 제안하였고, 이를 위해 전이 학습의 새로운 활용 방안과 특정 도메인에 특화된 캡션을 생성하는 방법을 제시하였다.