• 제목/요약/키워드: local approaches

검색결과 621건 처리시간 0.024초

In Search of Corporate Growth and Scaleup: What Strategies Drive Unicorns and Hyper-Growing Companies?

  • Lee, Young-Dall;Oh, Soyoung
    • 한국벤처창업학회:학술대회논문집
    • /
    • 한국벤처창업학회 2021년도 춘계학술대회
    • /
    • pp.33-42
    • /
    • 2021
  • Based on the findings of Lee et al.(2020) and Lee & Oh(2021), this paper aims to fill the gap in our knowledge regarding the relationship between strategic choices and corporate growth by utilizing a novel dataset of 'Unicorn' and 'Hyper-growing' companies. Two previous studies provide coherent findings that the relationship between firms' strategies and their performance should be explored under a more comprehensive framework with consideration of both internal and external factors. Therefore, in this study, we apply a single conceptual framework to two different datasets, which considers the strategy factors as independent variables, and the industry(market) and the firm age as moderating variables. For our dependent variables, valuations for unicorn companies and revenue CAGR for hyper-growing companies are used after categorizing them into three uniform groups. The strategy variables include 'Generic (Cost-leadership, Differentiation, focus) strategies', 'Growth(Organic, M&A) strategies', 'Leading(Pioneer, Fast-follower) strategies', 'Target market(B2B, B2C, B2G, C2C) strategies', 'Global(Global, Local) strategies', 'Digital(Online, Offline) strategies.' For industry(market) factors, it consists of historical growth rate for industries and economic, demographic, and regulatory aspects of states and countries. To overcome the differences in their units, they are also uniformly categorized into multiple groups. Before we conduct a regression analysis, we analyze the industry distribution of the 'Unicorn' and the 'Hyper-growing' companies with descriptive statistics at the integrated and individual levels. Next, we employ hierarchical regression models on Study A('Unicorn' companies in 2019) and Study B('Hyper-growing' companies in 2019) under the same comprehensive framework. We then analyze the relationship between the 'strategy' and the 'performance' factors with two different approaches: 1) an integrated regression model with both the sample of Study A and B and 2) respective regression models on Study A and B. This empirical study aims to provide a complete understanding and a reference to which strategy factors should be considered to promote firms' scale-up and growth.

  • PDF

An Improved Coyote Optimization Algorithm-Based Clustering for Extending Network Lifetime in Wireless Sensor Networks

  • Venkatesh Sivaprakasam;Vartika Kulshrestha;Godlin Atlas Lawrence Livingston;Senthilnathan Arumugam
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제17권7호
    • /
    • pp.1873-1893
    • /
    • 2023
  • The development of lightweight, low energy and small-sized sensors incorporated with the wireless networks has brought about a phenomenal growth of Wireless Sensor Networks (WSNs) in its different fields of applications. Moreover, the routing of data is crucial in a wide number of critical applications that includes ecosystem monitoring, military and disaster management. However, the time-delay, energy imbalance and minimized network lifetime are considered as the key problems faced during the process of data transmission. Furthermore, only when the functionality of cluster head selection is available in WSNs, it is possible to improve energy and network lifetime. Besides that, the task of cluster head selection is regarded as an NP-hard optimization problem that can be effectively modelled using hybrid metaheuristic approaches. Due to this reason, an Improved Coyote Optimization Algorithm-based Clustering Technique (ICOACT) is proposed for extending the lifetime for making efficient choices for cluster heads while maintaining a consistent balance between exploitation and exploration. The issue of premature convergence and its tendency of being trapped into the local optima in the Improved Coyote Optimization Algorithm (ICOA) through the selection of center solution is used for replacing the best solution in the search space during the clustering functionality. The simulation results of the proposed ICOACT confirmed its efficiency by increasing the number of alive nodes, the total number of clusters formed with the least amount of end-to-end delay and mean packet loss rate.

'말할 수 없는 것들'의 부정성 -수전 글래스펄의 『하찮은 것들』 "말할 수 없는 것에 대해 말할 수는 없다. 그것은 오직 제 스스로 말할 뿐이다." (Negativity, or the Justice for the Unsayable: Susan Glaspell's Trifles)

  • 노애경
    • 영어영문학
    • /
    • 제55권4호
    • /
    • pp.567-596
    • /
    • 2009
  • A staple of feminist literary anthologies which was instrumental in reevaluating the writer Susan Glaspell, Trifles(1916) has received numerous comments from feminist scholars so far. Most of them tend to concentrate on the themes of female solidarity and justice challenging the androcentric system of law and order. Lacking in the plethora of thematic approaches to the play's feminist subject, however, are formal analyses considering the way in which the play's generic form assists in communicating such thematic concerns of feminism. An alternative to the typical scenario at the courtroom whose mistreatment of women must have loomed large to the young Glaspell as she revisited the old trial of a midwestern murderess which she had covered as a journalist for a local newspaper in Iowa, Trifles serves as a corrective to the courtroom dynamics offering a 'dramatic justice' as opposed to a strictly legal procedure. What this article discovers at the heart of this dramatic justice is the celebration of the unsayable, or what Wolfgang Iser termed negativity, of women's experience which has no room for reflection in the legal discourse at the courtroom tyrannized by the sayable and the evident. Examining how the dramatic form of Trifles gives a voice to the unsayable of woman's experience, which can not be properly represented at the courtroom governed by the straightforward and definitive male rhetoric, the article argues that the play is a better form than its fictional adaptation "A Jury of Her Peers"(1917) in that it syntactically suppresses the monopolizing operation of the verbal by giving precedence to the scenic and non-verbal which is constituted of setting, props, gesture and eye contacts. As a theoretical frame of reference with which to examine the modes of the unsayable in the play the article brings the concept of 'negativity,' defined by Iser as textual effects or modes of the unspeakable and unsaid, into the discussion of the taciturnity of the absent heroine and the non-verbal representation of drama.

Application of deep learning with bivariate models for genomic prediction of sow lifetime productivity-related traits

  • Joon-Ki Hong;Yong-Min Kim;Eun-Seok Cho;Jae-Bong Lee;Young-Sin Kim;Hee-Bok Park
    • Animal Bioscience
    • /
    • 제37권4호
    • /
    • pp.622-630
    • /
    • 2024
  • Objective: Pig breeders cannot obtain phenotypic information at the time of selection for sow lifetime productivity (SLP). They would benefit from obtaining genetic information of candidate sows. Genomic data interpreted using deep learning (DL) techniques could contribute to the genetic improvement of SLP to maximize farm profitability because DL models capture nonlinear genetic effects such as dominance and epistasis more efficiently than conventional genomic prediction methods based on linear models. This study aimed to investigate the usefulness of DL for the genomic prediction of two SLP-related traits; lifetime number of litters (LNL) and lifetime pig production (LPP). Methods: Two bivariate DL models, convolutional neural network (CNN) and local convolutional neural network (LCNN), were compared with conventional bivariate linear models (i.e., genomic best linear unbiased prediction, Bayesian ridge regression, Bayes A, and Bayes B). Phenotype and pedigree data were collected from 40,011 sows that had husbandry records. Among these, 3,652 pigs were genotyped using the PorcineSNP60K BeadChip. Results: The best predictive correlation for LNL was obtained with CNN (0.28), followed by LCNN (0.26) and conventional linear models (approximately 0.21). For LPP, the best predictive correlation was also obtained with CNN (0.29), followed by LCNN (0.27) and conventional linear models (approximately 0.25). A similar trend was observed with the mean squared error of prediction for the SLP traits. Conclusion: This study provides an example of a CNN that can outperform against the linear model-based genomic prediction approaches when the nonlinear interaction components are important because LNL and LPP exhibited strong epistatic interaction components. Additionally, our results suggest that applying bivariate DL models could also contribute to the prediction accuracy by utilizing the genetic correlation between LNL and LPP.

Assessment of Occupational Health Risks for Maintenance Work in Fabrication Facilities: Brief Review and Recommendations

  • Dong-Uk Park;Kyung Ehi Zoh;Eun Kyo Jeong;Dong-Hee Koh;Kyong-Hui Lee;Naroo Lee;Kwonchul Ha
    • Safety and Health at Work
    • /
    • 제15권1호
    • /
    • pp.87-95
    • /
    • 2024
  • Background: This study focuses on assessing occupational risk for the health hazards encountered during maintenance works (MW) in semiconductor fabrication (FAB) facilities. Objectives: The objectives of this study include: 1) identifying the primary health hazards during MW in semiconductor FAB facilities; 2) reviewing the methods used in evaluating the likelihood and severity of health hazards through occupational health risk assessment (OHRA); and 3) suggesting variables for the categorization of likelihood of exposures to health hazards and the severity of health effects associated with MW in FAB facilities. Methods: A literature review was undertaken on OHRA methodology and health hazards resulting from MW in FAB facilities. Based on this review, approaches for categorizing the exposure to health hazards and the severity of health effects related to MW were recommended. Results: Maintenance workers in FAB facilities face exposure to hazards such as debris, machinery entanglement, and airborne particles laden with various chemical components. The level of engineering and administrative control measures is suggested to assess the likelihood of simultaneous chemical and dust exposure. Qualitative key factors for mixed exposure estimation during MW include the presence of safe operational protocols, the use of air-jet machines, the presence and effectiveness of local exhaust ventilation system, chamber post-purge and cooling, and proper respirator use. Using the risk (R) and hazard (H) codes of the Globally Harmonized System alongside carcinogenic, mutagenic, or reprotoxic classifications aid in categorizing health effect severity for OHRA. Conclusion: Further research is needed to apply our proposed variables in OHRA for MW in FAB facilities and subsequently validate the findings.

Enabling Effective Implementation of Occupational Safety and Health Interventions

  • Gaia Vitrano;Davide Urso;Guido J.L. Micheli;Armando Guglielmi;Diego De Merich;Mauro Pellicci
    • Safety and Health at Work
    • /
    • 제15권2호
    • /
    • pp.213-219
    • /
    • 2024
  • Background: The design, implementation, and evaluation are three important stages of occupational safety and health (OSH) interventions. Historically, there has been a tendency to prioritize implementation, often neglecting detailed design and rigorous outcome evaluation. Currently, much has changed, and contemporary approaches recognize the interdependence of these stages, considering them integral to the success of any intervention. This work presents a comprehensive procedure for implementing interventions, not only to ensure short-term effectiveness but also their long-term sustainability through continuous monitoring. The focus is on a national OSH project introducing a near-miss management system (NMS) in Italy. Methods: Initial meetings were convened among project partners, complemented by interviews with diverse stakeholders, to plan implementation steps and test the NMS. Tailored questionnaires were designed for diverse stakeholder groups - initial promoters, company managers and employers, and employees - facilitating targeted implementation, and three case studies were started in Italian regions to assess the structured implementation, involving intervention promoters and collaborating companies. Results: The primary outcome is the development of practical tools, specifically three questionnaires, which are considered valuable for establishing an effective human-centered implementation strategy, meticulously designed to facilitate ongoing monitoring of processes and continual enhancement of instruments intended for NMS integration within companies. Conclusions: This work lays the foundation for successful NMS implementation in Italy and, although the outlined procedure had specific objectives, it also provides valuable insights applicable in enhancing the effectiveness and sustainability of interventions across diverse contexts. It underscores the importance of comprehensive planning, stakeholder engagement, and continuous evaluation in achieving lasting OSH interventions.

Hardware Approach to Fuzzy Inference―ASIC and RISC―

  • Watanabe, Hiroyuki
    • 한국지능시스템학회:학술대회논문집
    • /
    • 한국퍼지및지능시스템학회 1993년도 Fifth International Fuzzy Systems Association World Congress 93
    • /
    • pp.975-976
    • /
    • 1993
  • This talk presents the overview of the author's research and development activities on fuzzy inference hardware. We involved it with two distinct approaches. The first approach is to use application specific integrated circuits (ASIC) technology. The fuzzy inference method is directly implemented in silicon. The second approach, which is in its preliminary stage, is to use more conventional microprocessor architecture. Here, we use a quantitative technique used by designer of reduced instruction set computer (RISC) to modify an architecture of a microprocessor. In the ASIC approach, we implemented the most widely used fuzzy inference mechanism directly on silicon. The mechanism is beaded on a max-min compositional rule of inference, and Mandami's method of fuzzy implication. The two VLSI fuzzy inference chips are designed, fabricated, and fully tested. Both used a full-custom CMOS technology. The second and more claborate chip was designed at the University of North Carolina(U C) in cooperation with MCNC. Both VLSI chips had muliple datapaths for rule digital fuzzy inference chips had multiple datapaths for rule evaluation, and they executed multiple fuzzy if-then rules in parallel. The AT & T chip is the first digital fuzzy inference chip in the world. It ran with a 20 MHz clock cycle and achieved an approximately 80.000 Fuzzy Logical inferences Per Second (FLIPS). It stored and executed 16 fuzzy if-then rules. Since it was designed as a proof of concept prototype chip, it had minimal amount of peripheral logic for system integration. UNC/MCNC chip consists of 688,131 transistors of which 476,160 are used for RAM memory. It ran with a 10 MHz clock cycle. The chip has a 3-staged pipeline and initiates a computation of new inference every 64 cycle. This chip achieved an approximately 160,000 FLIPS. The new architecture have the following important improvements from the AT & T chip: Programmable rule set memory (RAM). On-chip fuzzification operation by a table lookup method. On-chip defuzzification operation by a centroid method. Reconfigurable architecture for processing two rule formats. RAM/datapath redundancy for higher yield It can store and execute 51 if-then rule of the following format: IF A and B and C and D Then Do E, and Then Do F. With this format, the chip takes four inputs and produces two outputs. By software reconfiguration, it can store and execute 102 if-then rules of the following simpler format using the same datapath: IF A and B Then Do E. With this format the chip takes two inputs and produces one outputs. We have built two VME-bus board systems based on this chip for Oak Ridge National Laboratory (ORNL). The board is now installed in a robot at ORNL. Researchers uses this board for experiment in autonomous robot navigation. The Fuzzy Logic system board places the Fuzzy chip into a VMEbus environment. High level C language functions hide the operational details of the board from the applications programme . The programmer treats rule memories and fuzzification function memories as local structures passed as parameters to the C functions. ASIC fuzzy inference hardware is extremely fast, but they are limited in generality. Many aspects of the design are limited or fixed. We have proposed to designing a are limited or fixed. We have proposed to designing a fuzzy information processor as an application specific processor using a quantitative approach. The quantitative approach was developed by RISC designers. In effect, we are interested in evaluating the effectiveness of a specialized RISC processor for fuzzy information processing. As the first step, we measured the possible speed-up of a fuzzy inference program based on if-then rules by an introduction of specialized instructions, i.e., min and max instructions. The minimum and maximum operations are heavily used in fuzzy logic applications as fuzzy intersection and union. We performed measurements using a MIPS R3000 as a base micropro essor. The initial result is encouraging. We can achieve as high as a 2.5 increase in inference speed if the R3000 had min and max instructions. Also, they are useful for speeding up other fuzzy operations such as bounded product and bounded sum. The embedded processor's main task is to control some device or process. It usually runs a single or a embedded processer to create an embedded processor for fuzzy control is very effective. Table I shows the measured speed of the inference by a MIPS R3000 microprocessor, a fictitious MIPS R3000 microprocessor with min and max instructions, and a UNC/MCNC ASIC fuzzy inference chip. The software that used on microprocessors is a simulator of the ASIC chip. The first row is the computation time in seconds of 6000 inferences using 51 rules where each fuzzy set is represented by an array of 64 elements. The second row is the time required to perform a single inference. The last row is the fuzzy logical inferences per second (FLIPS) measured for ach device. There is a large gap in run time between the ASIC and software approaches even if we resort to a specialized fuzzy microprocessor. As for design time and cost, these two approaches represent two extremes. An ASIC approach is extremely expensive. It is, therefore, an important research topic to design a specialized computing architecture for fuzzy applications that falls between these two extremes both in run time and design time/cost. TABLEI INFERENCE TIME BY 51 RULES {{{{Time }}{{MIPS R3000 }}{{ASIC }}{{Regular }}{{With min/mix }}{{6000 inference 1 inference FLIPS }}{{125s 20.8ms 48 }}{{49s 8.2ms 122 }}{{0.0038s 6.4㎲ 156,250 }} }}

  • PDF

유전자 알고리즘을 이용한 다분류 SVM의 최적화: 기업신용등급 예측에의 응용 (Optimization of Multiclass Support Vector Machine using Genetic Algorithm: Application to the Prediction of Corporate Credit Rating)

  • 안현철
    • 경영정보학연구
    • /
    • 제16권3호
    • /
    • pp.161-177
    • /
    • 2014
  • 기업신용등급은 금융시장의 신뢰를 구축하고 거래를 활성화하는데 있어 매우 중요한 요소로서, 오래 전부터 학계에서는 보다 정확한 기업신용등급 예측을 가능케 하는 다양한 모형들을 연구해 왔다. 구체적으로 다중판별분석(Multiple Discriminant Analysis, MDA)이나 다항 로지스틱 회귀분석(multinomial logistic regression analysis, MLOGIT)과 같은 통계기법을 비롯해, 인공신경망(Artificial Neural Networks, ANN), 사례기반추론(Case-based Reasoning, CBR), 그리고 다분류 문제해결을 위해 확장된 다분류 Support Vector Machines(Multiclass SVM)에 이르기까지 다양한 기법들이 학자들에 의해 적용되었는데, 최근의 연구결과들에 따르면 이 중에서도 다분류 SVM이 가장 우수한 예측성과를 보이고 있는 것으로 보고되고 있다. 본 연구에서는 이러한 다분류 SVM의 성능을 한 단계 더 개선하기 위한 대안으로 유전자 알고리즘(GA, Genetic Algorithm)을 활용한 최적화 모형을 제안한다. 구체적으로 본 연구의 제안모형은 유전자 알고리즘을 활용해 다분류 SVM에 적용되어야 할 최적의 커널 함수 파라미터값들과 최적의 입력변수 집합(feature subset)을 탐색하도록 설계되었다. 실제 데이터셋을 활용해 제안모형을 적용해 본 결과, MDA나 MLOGIT, CBR, ANN과 같은 기존 인공지능/데이터마이닝 기법들은 물론 지금까지 가장 우수한 예측성과를 보이는 것으로 알려져 있던 전통적인 다분류 SVM 보다도 제안모형이 더 우수한 예측성과를 보임을 확인할 수 있었다.

한국농촌지도사업(韓國農村指導事業)의 변동(變動) (Changes in Agricultural Extension Services in Korea)

  • 후지타야스키;이용환;김성수
    • 농촌지도와개발
    • /
    • 제7권1호
    • /
    • pp.155-166
    • /
    • 2000
  • 1994년 가을 한국을 방문하였을 때 놀란 것 온 도시 근교에 숲과 같이 세워진 고층 아파트 단지와 그 수요의 배경이 된 서울, 수원을 비롯한 수도권의 인구 집중이었다. 이러한 인구 집중을 가져온 것은 바로 제2차, 3차 산업의 발달이었다. 그 이후 6년만인 2000년 3월에 다시 농촌과 농촌지도사업의 변화 동향을 살펴보기 위하여 농가 방문, 도 농업기술원 및 시 ${\cdot}$ 군농업 기술센터를 방문하면서 더욱 진전된 아파트군과 도시 근교의 비닐 하우스 단지였으며, 이는 한국이 지속적인 경제 발전을 하고 있다는 한 증거였다. 한국은 1997년에 내습한 통화위기로 IMF의 구제 금융을 받게 되었고, 이로 인하여 한국 경제는 IMF의 관리하에 있었으나 1년만에 회복의 기미를 보이기 시작하였으며, 1999에는 GDP 성장률이 10.7%에 달하였다. 한국 정부는 이 시기에 구조개혁을 단행하여 금융, 기업, 노동, 공공의 각 부분에 개혁을 단행하였다. 특히 정부로서는 정부 조직을 개편하여 지방화, 행정 조직 인원의 삭감, 농업 예산의 축소하는 방향으로 나아갔고 공기업을 민영화하여 농업 단체의 통합, 각종 규제를 철폐하였다. 중앙 정부의 권력이 지방으로 많이 이양되어 시장, 군수 등의 권한이 크게 늘어났다. 농촌지도사업도 IMF 관리하의 정부 조직 개편 및 규제 완화의 대상이 되었다. 지금까지 중앙 정부 소속이었던 농촌지도 사업이 지방화의 영향으로 시 ${\cdot}$ 군으로 이관되었다. 이것에 동반하여 농촌지도소 수의 축소(64%), 지도 직원의 감원(24%), 사업 예산의 감소 등으로 나타났다. 이러한 개편 과정에서 농촌지도사업의 기본적인 방향을 정하는 것은 중앙의 농촌진흥청이 맡고 인사와 기술 개발, 지원은 도농업기술원, 사업운영 책임은 시 ${\cdot}$ 군에서 맡는 체제로 개편되었다. 시 ${\cdot}$ 군 단계의 농촌지도사업은 담당 기구가 농촌지도소에서 농업기술센터로 그 명칭이 변경되었고, 설치권자가 군수로 되었으며, 그 기능에 기술 개발 업무가 더해졌으며, 농촌지도사 및 생활지도사의 수가 크게 감소되었다. 최근에 한국의 농촌 및 농촌지도사업을 관찰한 결과, 이러한 중앙, 도 시 군의 지도 기능 분담이 그렇게 잘 인식되어 있는 것만은 아닌 면도 있는 것으로 보였다. 이러한 구조 개선을 계기로 해서 농촌의 현실을 반영한 실효성 있는 농촌진흥에 기여할 수 있는 농촌지도사업으로 재출발한다는 의의를 살릴 수 있도록 농촌진흥청은 농업기술센터의 동태를 철저하게 살피고 이와 관련한 도농업기술원의 대응을 파악하여 이를 기초로 기능을 발휘하도록 만들어야 할 것이다. 국가에서 이관된 현지의 농촌지도 거점인 농업기술센터에 관하여 농촌지도소가 개칭되어 농업기술센터가 되었고 조직적인 면에서도 기술개발과가 설치되었다. 이는 현지에서의 기술 개발이 가능하게 된 점과 현지에서 원하는 과제를 신속하게 대응하여 도와 국가의 시험연구 과제로 삼을 수 있게 된 것은 시험 연구 사업에서 크게 평가받을 만한 발전이라 할 것이다. 그러나, 농촌지도 직원이 다른 행정 업무도 겸무하여 될 경우 영농 환경을 좋게 하는 직접적인 행정에 관한 업무에서는 겸무하므로서 농가도 편리해지고, 보급지도의 효과도 촉진되는 경우가 있으나 검사, 취체 업무는 반드시 피해야 할 일이다. 동일인이 이것을 담당하게 되면 농가에게 안심감을 잃어버리고 보급 효과는 기대할 수 없게 될 것이다. 한국의 농촌지도사업의 보급 내용은 농업자재의 절약, 첨단농업기술의 개발, 이를 기반으로 수출농업의 촉진과 생산성 향상, 시장에 강한 농업의 구축 등에 힘을 쏟고 있는 것으로 보였다. 그러나 이러한 농업의 추구는 약탈농업을 추구하는 등 지속적 농업이 되지 않을 가능성이 높아지게 된다. 앞으로 지속적인 농업에 관하여 보다 더 많은 관심을 기울여야 할 것이다. 선진농가들은 기술이나 경영 혁신을 위하여 연구 개발을 위한 정보의 수집과 연구회의 필요성을 크게 강조하고 있었다. 그러나 이러한 선진 농가 이외에 소규모의 농업소득이 낮은 농가도 있었다. 이러한 농가에게는 농업경영에 대한 방향 설정과 추진 방법에 대한 적절한 상담 상대가 없는 것으로 보였다. 이러한 농가들에 대한 시의적절한 정보의 전달, 자력으로 기술과 경영 방책을 만들어내는 힘을 길러주는 지도가 필요하다. 이를 위한 방책으로 그룹의 육성과 가입 촉진이 유효할 것이다. 따라서 한국에 있어서 농촌지도 방법은 크게 두 가지 대상을 의식하여 대 선진농가의 경우에 는 상담 기능, 대 소규모 농가의 청우에는 전달 ${\cdot}$ 교육 기능의 발휘에 있을 것이다. 상담 기능은 정보의 제공과 과도하지 않은 방책을 선택 할 수 있도록 지도 조언하는 것이, 전달 ${\cdot}$ 교육 기능은 과제해결 과정을 체득하게 하는 것이다. 이를 위하여 인터넷의 활용 방법, e-메일에 의한 정보교환 시스템화 등의 연구가 진행되고 있다. 인원의 감소나 겸무화의 진행에 따라 이러한 업무의 수행이 쉬운 것은 아니라고 생각되고, 일 대 일의 지도는 어려울 것이나 집단 지도로는 가능한 측면도 있을 것으로 사료된다.

  • PDF

한국 경제지리학의 회고와 전망 (Retrospect and Prospect of Economic Geography in Korea)

  • 이원호;이승철;구양미
    • 대한지리학회지
    • /
    • 제47권4호
    • /
    • pp.522-540
    • /
    • 2012
  • 본 연구는 1950년대 중반 이후 나타난 한국 경제지리학의 연구 성과와 과제를 검토하여 한국 경제지리학의 지향점과 연구 과제를 제시하는데 주안점을 두었다. 20세기 후반 이후 경제지리학은 새로운 이슈, 이론, 방법론 등의 도입과 함께 크게 발전하였다. 이에 따라 한국 경제지리학도 지난 반세기 동안 연구의 양적인 면과 질적인 면에서 크게 발전하였다. 본 논문은 1950년대 중반 이후 한국의 농업지리학, 공업지리학, 상업지리학 등의 문헌을 검토함으로써 한국 경제지리학의 동향을 분석하고자 하였다. 한국 경제지리학은 연구의 주제와 접근방법을 기반으로 네 개 시기- 요람기(1950년대), 정립기(1960~1970년대), 도약기(1980~1990년대 중반), 전환기(1990년대 후기 이후) -로 구분할 수 있다. 1980년대 한국 경제지리학의 연구 관심이 공업지리학으로 옮겨지면서 농업지리학은 크게 쇠퇴하였다. 특히, 1990년대 후반 이후 가치사슬, 혁신 클러스터, 협력과 경쟁 네트워크, 해외직접투자, 유연적 전문화, 벤처 생태계 등과 같은 주요 이슈를 중심으로 새로운 제도적 관점의 이론이 도입되면서 공업지리학은 크게 성장하였다. 상업지리학에서는 1980년대까지 정기시장, 상품 유통, 상가 구조 등에 관한 연구가 주로 이루어졌으나, 1990년대 이후에는 생산자 서비스를 중심으로 한 서비스 산업과 새로운 양식의 출현에 따른 소비 입지 형태와 상권에 관한 연구들이 많이 이루어졌다. 이와 더불어 1990년대 후반 이후 신경제지리학과 관련된 많은 연구와 담론들이 출현하기 시작하였다. 특히, 제도적 관점, 지식과 혁신, 생산 사슬과 혁신 네트워크, 산업 클러스터와 지역혁신체제 등을 중심으로 다양한 경제공간의 변화에 대한 연구가 활발히 이루어졌다. 한국 경제지리학은 1990년대 이후 급격한 양적 질적 성장을 이루었지만, 여전히 대부분의 연구가 몇몇 특정 공간과 이슈에 집중되어 있는 한계를 가지고 있다. 따라서 경제지리학 전반에서 볼 때, 새로운 이론적 및 방법론적 관점과 접근 방식을 보다 적극적으로 도입하여 연구 주제를 다양화 시켜야 할 뿐만 아니라 연구의 공간 범위도 다층화하는 것이 앞으로 중점으로 지향해야 할 주요 연구 과제이다.

  • PDF