• 제목/요약/키워드: Intersection Approaches

검색결과 46건 처리시간 0.018초

차원계수방식에 의한 다차원적 빈곤 측정 (Measurement of Multidimensional Poverty by Counting Approach)

  • 최균;서병수;권종희
    • 한국사회복지학
    • /
    • 제63권1호
    • /
    • pp.85-111
    • /
    • 2011
  • 다차원적 빈곤접근에 있어 빈자의 구분방식에는 복합지수방식, 합집합 및 교집합방식이 있는데 이들 방식들은 타당하지 않은 문제들이 있었다. Alkire와 Foster는 이 문제를 해소하는 방법으로 합집합과 교집합의 중간 형태로서 결핍차원들의 개수를 경계선으로 이용하는 차원계수방식을 이론화하였다. 차원계수방식에 의해 우리나라의 다차원적 빈곤을 측정한 결과, 3개 결핍차원을 정책적 차원빈곤선으로 하는 경우 다차원적 빈곤율은 20% 수준으로서 10명 중 2명이 다차원적으로 빈곤하였다. 다차원적 빈곤율이 높은 것은 자산, 소득, 사회보장, 건강 등 여러 차원으로 결핍의 폭이 넓은데 기인하였다. 여성, 한 부모, 노인, 비경제활동인구 등 취약계층일수록 다차원 빈곤의 폭이 넓고 가중되고 있었다. 연구결과 현행 기초생활보장제도가 탈 빈곤유도와 기초생활보장이라는 두 가지 정책목표를 각각 효과적으로 달성하기 위해서는 근로능력 유무에 따라 수급자선정과 지원체제를 이원화하고 차원계수방식을 적용하는 것이 유용하다고 본다.

  • PDF

Comparison of Multi-Label U-Net and Mask R-CNN for panoramic radiograph segmentation to detect periodontitis

  • Rini, Widyaningrum;Ika, Candradewi;Nur Rahman Ahmad Seno, Aji;Rona, Aulianisa
    • Imaging Science in Dentistry
    • /
    • 제52권4호
    • /
    • pp.383-391
    • /
    • 2022
  • Purpose: Periodontitis, the most prevalent chronic inflammatory condition affecting teeth-supporting tissues, is diagnosed and classified through clinical and radiographic examinations. The staging of periodontitis using panoramic radiographs provides information for designing computer-assisted diagnostic systems. Performing image segmentation in periodontitis is required for image processing in diagnostic applications. This study evaluated image segmentation for periodontitis staging based on deep learning approaches. Materials and Methods: Multi-Label U-Net and Mask R-CNN models were compared for image segmentation to detect periodontitis using 100 digital panoramic radiographs. Normal conditions and 4 stages of periodontitis were annotated on these panoramic radiographs. A total of 1100 original and augmented images were then randomly divided into a training (75%) dataset to produce segmentation models and a testing (25%) dataset to determine the evaluation metrics of the segmentation models. Results: The performance of the segmentation models against the radiographic diagnosis of periodontitis conducted by a dentist was described by evaluation metrics(i.e., dice coefficient and intersection-over-union [IoU] score). MultiLabel U-Net achieved a dice coefficient of 0.96 and an IoU score of 0.97. Meanwhile, Mask R-CNN attained a dice coefficient of 0.87 and an IoU score of 0.74. U-Net showed the characteristic of semantic segmentation, and Mask R-CNN performed instance segmentation with accuracy, precision, recall, and F1-score values of 95%, 85.6%, 88.2%, and 86.6%, respectively. Conclusion: Multi-Label U-Net produced superior image segmentation to that of Mask R-CNN. The authors recommend integrating it with other techniques to develop hybrid models for automatic periodontitis detection.

A hierarchical semantic segmentation framework for computer vision-based bridge damage detection

  • Jingxiao Liu;Yujie Wei ;Bingqing Chen;Hae Young Noh
    • Smart Structures and Systems
    • /
    • 제31권4호
    • /
    • pp.325-334
    • /
    • 2023
  • Computer vision-based damage detection enables non-contact, efficient and low-cost bridge health monitoring, which reduces the need for labor-intensive manual inspection or that for a large number of on-site sensing instruments. By leveraging recent semantic segmentation approaches, we can detect regions of critical structural components and identify damages at pixel level on images. However, existing methods perform poorly when detecting small and thin damages (e.g., cracks); the problem is exacerbated by imbalanced samples. To this end, we incorporate domain knowledge to introduce a hierarchical semantic segmentation framework that imposes a hierarchical semantic relationship between component categories and damage types. For instance, certain types of concrete cracks are only present on bridge columns, and therefore the noncolumn region may be masked out when detecting such damages. In this way, the damage detection model focuses on extracting features from relevant structural components and avoid those from irrelevant regions. We also utilize multi-scale augmentation to preserve contextual information of each image, without losing the ability to handle small and/or thin damages. In addition, our framework employs an importance sampling, where images with rare components are sampled more often, to address sample imbalance. We evaluated our framework on a public synthetic dataset that consists of 2,000 railway bridges. Our framework achieves a 0.836 mean intersection over union (IoU) for structural component segmentation and a 0.483 mean IoU for damage segmentation. Our results have in total 5% and 18% improvements for the structural component segmentation and damage segmentation tasks, respectively, compared to the best-performing baseline model.

Hardware Approach to Fuzzy Inference―ASIC and RISC―

  • Watanabe, Hiroyuki
    • 한국지능시스템학회:학술대회논문집
    • /
    • 한국퍼지및지능시스템학회 1993년도 Fifth International Fuzzy Systems Association World Congress 93
    • /
    • pp.975-976
    • /
    • 1993
  • This talk presents the overview of the author's research and development activities on fuzzy inference hardware. We involved it with two distinct approaches. The first approach is to use application specific integrated circuits (ASIC) technology. The fuzzy inference method is directly implemented in silicon. The second approach, which is in its preliminary stage, is to use more conventional microprocessor architecture. Here, we use a quantitative technique used by designer of reduced instruction set computer (RISC) to modify an architecture of a microprocessor. In the ASIC approach, we implemented the most widely used fuzzy inference mechanism directly on silicon. The mechanism is beaded on a max-min compositional rule of inference, and Mandami's method of fuzzy implication. The two VLSI fuzzy inference chips are designed, fabricated, and fully tested. Both used a full-custom CMOS technology. The second and more claborate chip was designed at the University of North Carolina(U C) in cooperation with MCNC. Both VLSI chips had muliple datapaths for rule digital fuzzy inference chips had multiple datapaths for rule evaluation, and they executed multiple fuzzy if-then rules in parallel. The AT & T chip is the first digital fuzzy inference chip in the world. It ran with a 20 MHz clock cycle and achieved an approximately 80.000 Fuzzy Logical inferences Per Second (FLIPS). It stored and executed 16 fuzzy if-then rules. Since it was designed as a proof of concept prototype chip, it had minimal amount of peripheral logic for system integration. UNC/MCNC chip consists of 688,131 transistors of which 476,160 are used for RAM memory. It ran with a 10 MHz clock cycle. The chip has a 3-staged pipeline and initiates a computation of new inference every 64 cycle. This chip achieved an approximately 160,000 FLIPS. The new architecture have the following important improvements from the AT & T chip: Programmable rule set memory (RAM). On-chip fuzzification operation by a table lookup method. On-chip defuzzification operation by a centroid method. Reconfigurable architecture for processing two rule formats. RAM/datapath redundancy for higher yield It can store and execute 51 if-then rule of the following format: IF A and B and C and D Then Do E, and Then Do F. With this format, the chip takes four inputs and produces two outputs. By software reconfiguration, it can store and execute 102 if-then rules of the following simpler format using the same datapath: IF A and B Then Do E. With this format the chip takes two inputs and produces one outputs. We have built two VME-bus board systems based on this chip for Oak Ridge National Laboratory (ORNL). The board is now installed in a robot at ORNL. Researchers uses this board for experiment in autonomous robot navigation. The Fuzzy Logic system board places the Fuzzy chip into a VMEbus environment. High level C language functions hide the operational details of the board from the applications programme . The programmer treats rule memories and fuzzification function memories as local structures passed as parameters to the C functions. ASIC fuzzy inference hardware is extremely fast, but they are limited in generality. Many aspects of the design are limited or fixed. We have proposed to designing a are limited or fixed. We have proposed to designing a fuzzy information processor as an application specific processor using a quantitative approach. The quantitative approach was developed by RISC designers. In effect, we are interested in evaluating the effectiveness of a specialized RISC processor for fuzzy information processing. As the first step, we measured the possible speed-up of a fuzzy inference program based on if-then rules by an introduction of specialized instructions, i.e., min and max instructions. The minimum and maximum operations are heavily used in fuzzy logic applications as fuzzy intersection and union. We performed measurements using a MIPS R3000 as a base micropro essor. The initial result is encouraging. We can achieve as high as a 2.5 increase in inference speed if the R3000 had min and max instructions. Also, they are useful for speeding up other fuzzy operations such as bounded product and bounded sum. The embedded processor's main task is to control some device or process. It usually runs a single or a embedded processer to create an embedded processor for fuzzy control is very effective. Table I shows the measured speed of the inference by a MIPS R3000 microprocessor, a fictitious MIPS R3000 microprocessor with min and max instructions, and a UNC/MCNC ASIC fuzzy inference chip. The software that used on microprocessors is a simulator of the ASIC chip. The first row is the computation time in seconds of 6000 inferences using 51 rules where each fuzzy set is represented by an array of 64 elements. The second row is the time required to perform a single inference. The last row is the fuzzy logical inferences per second (FLIPS) measured for ach device. There is a large gap in run time between the ASIC and software approaches even if we resort to a specialized fuzzy microprocessor. As for design time and cost, these two approaches represent two extremes. An ASIC approach is extremely expensive. It is, therefore, an important research topic to design a specialized computing architecture for fuzzy applications that falls between these two extremes both in run time and design time/cost. TABLEI INFERENCE TIME BY 51 RULES {{{{Time }}{{MIPS R3000 }}{{ASIC }}{{Regular }}{{With min/mix }}{{6000 inference 1 inference FLIPS }}{{125s 20.8ms 48 }}{{49s 8.2ms 122 }}{{0.0038s 6.4㎲ 156,250 }} }}

  • PDF

신호교차로 지체 산정 비교 (Comparison of Delay Estimates for Signalized Intersection)

  • 조준한;조용찬;김성호
    • 대한교통학회지
    • /
    • 제23권1호
    • /
    • pp.67-80
    • /
    • 2005
  • 신호교차로의 용량 및 서비스수준을 분석하는데 지체를 기본적인 평가척도로 이용하고 있다. 지금까지 연구되어진 다양한 지체모형은 비포화와 포화상태를 고려한 교통조건하에서 교차로 신혼운영전략 및 기하구조 개선에 중요한 척도로 이용되고 있다. 본 연구는 대기행렬모형, 충격파모형, 정상상태 확률적 모형, 시간종속 확률적 모형, 거시적 및 미시적 시뮬레이션 모형에 대한 지체를 비교 ${\cdot}$분석하였다. 분석결과를 보면, v/c ratio가 증가함에 딸 지체는 단조 증가형태를 띠고 있다. 비포화상태에서는 결정적모형과 확률적 모형의 지체 모두 비슷한 값으로 나타났으며, 포화상태에서는 1994 HCM모형을 제외하고는 모두 유사한 곡선의 패턴을 유지하면서 지체값은 어느정도 차이를 보이고 있다. 전통적인 대기행렬모형과 충격파모형은 이미 이론적으로 검증되었듯이 동일한 지체값이 나왔다. 정상상태 확률적 모형인 webster모형은 v/c-0.8이하에서는 2001 KHCM과 거의 동일한 값을 나타냈으며, v/c=1.0에 가까울수록 무한대로 증가하는 경향을 보이고 있다. 시간종속 확률적 모형은 결정적 포화상태모형을 점근선으로 하여 지체를 산정하기 때문에 점진적으로 단조증가 형태를 띠로 있다. 거시결정적 시뮬레이션인 TRANSYT-7F의 두 모형인 link-wise simulation과 step-wise simulation은 v/c=1.0까지는 2001 KHCM모형과 거의 동일한 값을 나타냈으며, v/c=1.0 이상에서는 step-wise simulation이 상대적으로 높게 나타났다. 미시확률적인 시뮬레이션인 NETSIM모형은 개별차량간의 상호작용과 교통량 변화에 따른 미시적인 운전자 형태를 모사하기 때문에 다른 모형에 비해 낮게 나타났다. 또한 TRANSYST-7F와 NETSIM을 비교하였을 때 지체값의 차이가 크게 나타난 것은 차량 형태 알고리즘이 다르기 때문에 이를 비교한다는 것은 큰 의미가 없을 것으로 판단된다.

변화의 시대, 인문학적 변화 연구와 방법에 대한 고찰 (In a Time of Change: Reflections on Humanities Research and Methodologies)

  • 김덕삼
    • 대순사상논총
    • /
    • 제49집
    • /
    • pp.265-294
    • /
    • 2024
  • 본고는 인문학적 연구 방법에 대한 의문에서 출발한다. 그 출발은 인문학을 기초로 하면서, 인문학에게 빛과 어둠을 안긴 변화에 집중하며, 그 변화를 탐구할 연구 방법에 논의의 초점을 맞춘 토대 위에 있다. 기존과 구분하여, 인문학의 역할이 과학과 다르게 회색 코뿔소를 예방하는 데 있다고 한다면, 그리고 과학의 제어하기 어려운 발전을 조정하는 데 인문학이 해야 할 역할이 있다면, 인문학이 지향해야 할 연구 방법은 어떤 것일지, 과학의 발전과 변화한 환경에 맞춰 다시 생각해 보고자 했다. 이에 본고에서는 인문학적 측면에서의 연구 방법에 대하여 논하였다. 먼저, 2장에서는 인문적 자산과 과학적 방법의 협업을 통하여, 축적된 인문적 자산의 활용과 과학적 방법의 지속적 도입을 주장하였다. 변화에 대한 예측은 공학과 자연과학에서는 매우 정밀하고, 그 파장이 크다. 하지만 이러한 분야에서는 거시적으로나 통합적으로 변화에 접근하기 어렵다. 거시적이거나 통합적인 것은 이들의 분야에서 정밀하지 않기에 현실적인 것을 다루는 학문에서 환영받지 못한다. 이는 주로 인문학이 담당했다. 과학이 정밀함에 집중한다면 인문학은 본질에 대한 물음에 집중한다. 오랜 역사 속에 변화의 끝은 다양했지만, 변화의 본질은 큰 차이가 없었기 때문이다. 이어서 3장에서는 변화한 환경, 인문학적 변화 연구 방법의 제안을 거론하며, 귀납적 변화 연구 방법의 검토와 제안 및 인문학적 변화 연구에 대한 몇 가지 제안을 하였다. 과거 인류가 축적한 인문적 데이터는 무궁하고, 활용 범위는 다양하다. 현재는 과학 발전의 결과물을 적극적으로 수용할뿐더러, 학문의 경계를 넘어, 체계적인 인문학적 접근과 활용을 적극적으로 모색하며, 과학적 방법과 인문적 자산의 교집합 지점, 여기서 그 해결의 실마리를 찾아야 할 것이다.