• 제목/요약/키워드: large pipeline

검색결과 221건 처리시간 0.026초

Hellinger 거리 IoU와 Objectron 적용을 기반으로 하는 객체 감지 (Object Detection Based on Hellinger Distance IoU and Objectron Application)

  • 김용길;문경일
    • 한국인터넷방송통신학회논문지
    • /
    • 제22권2호
    • /
    • pp.63-70
    • /
    • 2022
  • 2D 객체 감지 시스템은 최근 몇 년 동안 심층 신경망과 대규모 이미지 데이터세트의 사용으로 크게 개선되었지만, 아직도 범주 내에서 데이터 부족, 다양한 외관 및 객체 형상 때문에 자율 탐색 등과 같은 로봇 공학과 관련된 응용에서 2D 물체 감지 시스템은 적절하지 않다. 최근에 소개되고 있는 구글 Objectron 또한 증강 현실 세션 데이터를 사용하는 새로운 데이터 파이프라인이라는 점에서 도약이라 할 수 있지만, 3D 공간에서 2D 객체 이해라는 측면에서 마찬가지로 한계가 있다. 이에 본 연구에서는 더 성숙한 2D 물체 감지 방법을 Objectron에 도입하는 3D 물체 감지 시스템을 나타낸다. 대부분의 객체 감지 방법은 경계 상자를 사용하여 객체 모양과 위치를 인코딩한다. 본 작업에서는 가우스 분포를 사용하여 객체 영역의 확률적 표현을 탐색하는데, 일종의 확률적 IoU라 할 수 있는 Hellinger 거리를 기반으로 하는 가우스 분포에 대한 유사성 측도를 제시한다. 이러한 2D 표현은 모든 객체 감지기에 원활하게 통합할 수 있으며, 실험 결과 데이터 집합에서 주석이 달린 분할 영역에 더 가까워서 Objectron의 단점이라 할 수 있는 3D 감지 정확도를 높일 수 있다.

인공지능을 이용한 영화제작 : 시각효과를 중심으로 (Film Production Using Artificial Intelligence with a Focus on Visual Effects)

  • 유태경
    • 한국엔터테인먼트산업학회논문지
    • /
    • 제15권1호
    • /
    • pp.53-62
    • /
    • 2021
  • 영화는 대중에게 처음 소개된 이래로 테크놀로지의 발전과 변화 과정을 함께하고 있다. 영화 제작 과정에 시각효과를 중심으로 한 포스트 프로덕션과 디지털 기술들이 본격적으로 적용되면서 영화 산업은 제작 방식에 있어서 큰 변화를 겪었을 뿐만 아니라 최신 기술들을 폭넓게 수용하며 산업적 기회의 폭을 넓혀가고 있다. 디지털 영화로 변화한 지 오래지 않은 지금, 영화의 디지털화가 시작되기도 전인 1956년 다트머스 회의에서 처음 알려진 인공지능이란 개념이 다시 영화 산업의 큰 변화를 가져올 것으로 예상된다. 디지털 영화의 제작 파이프라인은 거대한 디지털 데이터를 체계적으로 운용하고 만들어 내기 때문에 머신러닝과 딥러닝으로 대표되는 최근 인공지능 기술들을 적용하기 용이하고 시각효과 제작 과정에는 반복적인 작업과 분석을 통한 재현이 많고 계산 시간이 오래 걸리는 과정들이 있기 때문에 최근 주요 시각효과 스튜디오들을 중심으로 인공지능 기술의 활용이 두드러지고 있다. 본 연구에서는 제작 도구로서 인공지능 기술을 이용한 영화 시각효과 제작 사례에 대한 분석을 통해서 향후 인공지능 기술이 영화 산업을 어떻게 바꿔놓을지 예측하고 시각효과 기술로서 인공지능의 산업적 가능성을 조망해 보고자 한다.

Анализ механизмов формирования цен на газ на мировом рынке и бизнес-модели «Сheniere Energy» (Analysis of Price Formation Mechanism of Natural Gas in the Global Market and Business Model of ''Cheniere Energy")

  • Джинсок, Сун
    • 분석과 대안
    • /
    • 제5권2호
    • /
    • pp.77-105
    • /
    • 2021
  • Потребление природного газа в Азии растет быстрыми темпами из-за различных факторов, таких как экономический рост в регионе, урбанизация, переход с угля на газ в секторах производства электроэнергии и промышленности. Из-за географических особенностей и отсутствия международных трубопроводных соединений между странами в АТР большая часть природного газа, экспортируемого азиатским потребителям, транспортируется танкерами по морю в виде сжиженного природного газа. Поскольку азиатский рынок является наиболее прибыльным рынком с самым быстрым ростом спроса, конкуренция между продавцами сжиженного природного газа (СПГ) за долю азиатского рынка усиливается. Конкуренция ускорилась, особенно после того, как на рынок были выведены большие объемы дополнительных поставок со стороны новых экспортеров из США, Австралии и России. Cheniere Energy, первый экспортер СПГ в континентальной части США, не приняла традиционный механизм ценообразования и бизнес-модель. Традиционно цены по долгосрочным контрактам на СПГ индексируются к ценам на конкурирующие виды топлива, такие как сырая нефть. Компания приняла механизм ценообразования и бизнесмодель по системе «кост-плюс». Cheniere Energy выбрала более безопасную и безрисковую систему ценообразования, которая ежегодно гарантирует продавцу фиксированную сумму дохода. Компания зарабатывает одинаковую сумму денег, независимо от динамики цен на природный газ на внутреннем и международном рынке, возможно с меньшим доходом. Однако, успешно внедрив более безопасную и безрисковую бизнес-модель, Cheniere Energy, компания относительно меньшего размера по сравнению с крупными нефтегазовыми компаниями, стала примером для других небольших компаний в стране. Бизнес-модель компании продемонстрировала, как войти и управлять бизнесом СПГ в США в условиях растущей конкуренции между продавцами на внутреннем и международном рынке.

다중 어댑터를 이용한 교차 언어 및 스타일 기반의 제목 생성 (Cross-Lingual Style-Based Title Generation Using Multiple Adapters)

  • 박요한;최용석;이공주
    • 정보처리학회논문지:소프트웨어 및 데이터공학
    • /
    • 제12권8호
    • /
    • pp.341-354
    • /
    • 2023
  • 문서의 제목은 문서의 내용을 가장 효율적으로 요약하여 제공해 준다. 이때 독자들이 선호하는 스타일과 언어에 따라 문서의 제목을 다르게 제공해 준다면, 독자들은 문서의 내용을 좀 더 쉽게 예측할 수 있다. 본 연구에서는 문서가 주어졌을 때 언어와 스타일에 따라 제목을 자동 생성하는'교차 언어 및 스타일 기반의 제목 생성 모델을 제안한다. 모델을 학습하기 위해서는 같은 내용을 다른 언어와 다른 스타일로 작성한 병렬데이터가 필요하다. 그러나 이러한 종류의 병렬데이터는 구축하기 매우 어렵다. 반면, 단일 언어와 단일 스타일로 구축된 제목 생성 데이터는 많으므로 본 연구에서는 제로샷(zero-shot) 학습으로 제목 생성을 수행하고자 한다. 교차 언어 및 스타일 기반의 제목 생성을 학습하기 위해 다중 언어로 사전 학습된 트랜스포머 모델에 각 언어, 스타일, 기계번역을 위한 어댑터를 추가하였다. 기계 번역용 병렬데이터를 이용하여 기계번역을 먼저 학습한 후, 동일 스타일의 제목 생성을 학습하였다. 이때, 필요한 어댑터만을 학습하고 다른 부분의 파라미터는 모두 고정시킨다. 교차 언어 및 스타일 기반의 제목을 생성할 때에는 목적 언어와 목적 스타일에 해당하는 어댑터만을 활성화시킨다. 실험 결과로는 각 모델을 따로 학습시켜 파이프라인으로 연결시킨 베이스라인에 비해 본 연구에서 제안한 제로샷 제목 생성의 성능이 크게 떨어지지 않았다. 최근 대규모 언어 모델의 등장으로 인한 자연어 생성에서의 많은 변화가 있다. 그러나 제한된 자원과 제한된 데이터만을 이용하여 자연어 생성의 성능을 개선하는 연구는 계속되어야 하며, 그런 점에서 본 연구의 의의를 모색한다.

고속 동기화를 위한 디지털트윈 개념 모델 설계 (Designing Digital Twin Concept Model for High-Speed Synchronization)

  • 임채영;여채은;성호진
    • 문화기술의 융합
    • /
    • 제9권6호
    • /
    • pp.245-250
    • /
    • 2023
  • 현실공간의 정보를 가상의 공간으로 모사하는 디지털 트윈 기술은 다양한 분야에서 채택되고 있다. 디지털 트윈에 대한 관심은 Industry 4.0 기반의 스마트제조와 같은 첨단 제조 분야를 중심으로 관심이 커지고 있다. 그리고 디지털 트윈의 시스템을 운영하면 수많은 데이터가 발생하며 기술의 분야에 따라 발생하는 데이터는 특성이 다르기때문에 효율적으로 자원을 관리하고, 최적화된 디지털 트윈 플랫폼 기술이 필요하다. 첨단 제조 분야를 중심으로 디지털 트윈의 파이프라인에 대한 연구가 지속적으로 진행되어 왔으나 플랜트 분야의 데이터에 적합한 고속의 파이프라인 연구는 아직 부족하다. 그렇기에 본 논문에서는 Apache Kafka를 통해 고속으로 쏟아지는 플랜트분야의 디지털 트윈 데이터에 특화된 파이프라인 설계 방식을 제안한다. 제안된 모델은 플랜트의 정보를 revit 기반으로 적용하고, 플랜트에 특화된 데이터를 Apache Kafka 통해 수집하며, 경량화된 CFD엔진을 탑재하여 기존의 제조 분야의 디지털 트윈 기술보다 플랜트분야에 적합한 디지털 트윈의 모델을 구현할 수 있다.

의미론적 분할 기반 모델을 이용한 조선소 사외 적치장 객체 자동 관리 기술 (Segmentation Foundation Model-based Automated Yard Management Algorithm)

  • 정민규;노정현;김장현;하성헌;강태선;이병학;강기룡;김준현;박진선
    • 스마트미디어저널
    • /
    • 제13권2호
    • /
    • pp.52-61
    • /
    • 2024
  • 조선소에서는 사외 적치장의 관리를 위해 일정 주기로 Unmanned Aerial Vehicle (UAV)을 이용해 항공영상을 획득하고, 이를 사람이 판독하여 적치장 현황을 파악한다. 이러한 방법은 넓은 면적의 사외 적치장 현황을 파악하는 데 상당한 시간과 인력을 요구한다. 본 논문에서는 이러한 문제점을 해결하고 정확한 사외 적치장 현황을 파악하기 위해 사전 학습된 의미론적 분할 기반 모델(Foundation Model)을 활용한 자동 관리 기술을 제안한다. 또한, 조선소 사외 적치장의 경우 관련 부품이나 장비를 포함한 공개 데이터셋이 충분하지 않기 때문에, 의미론적 분할 기반 모델에 필요한 객체 프롬프트(Prompt)를 생성하기 위한 소규모 사외 적치장 객체 데이터셋을 직접 구축하였다. 이를 이용해 객체 검출기를 소규모 데이터셋에 추가 학습하여 초기 객체 후보를 추출하고, 의미론적 분할 기반 모델인 Segment Anything Model (SAM)의 프롬프트로 활용해 정확한 의미론적 분할 결과를 얻는다. 더 나아가, 지속적인 적치장 데이터셋 수집을 위해 SAM을 활용한 훈련 데이터 생성 파이프라인을 제안한다. 본 연구에서 제안한 방법은 기존의 의미론적 분할 방법과 비교하여 평균적 4.00%p, SegFormer에 비해 5.08%p 높은 성능을 달성하였다.

전이학습 기반 다중 컨볼류션 신경망 레이어의 활성화 특징과 주성분 분석을 이용한 이미지 분류 방법 (Transfer Learning using Multiple ConvNet Layers Activation Features with Principal Component Analysis for Image Classification)

  • 바트후 ?바자브;주마벡 알리하노브;팡양;고승현;조근식
    • 지능정보연구
    • /
    • 제24권1호
    • /
    • pp.205-225
    • /
    • 2018
  • Convolutional Neural Network (ConvNet)은 시각적 특징의 계층 구조를 분석하고 학습할 수 있는 대표적인 심층 신경망이다. 첫 번째 신경망 모델인 Neocognitron은 80 년대에 처음 소개되었다. 당시 신경망은 대규모 데이터 집합과 계산 능력이 부족하여 학계와 산업계에서 널리 사용되지 않았다. 그러나 2012년 Krizhevsky는 ImageNet ILSVRC (Large Scale Visual Recognition Challenge) 에서 심층 신경망을 사용하여 시각적 인식 문제를 획기적으로 해결하였고 그로 인해 신경망에 대한 사람들의 관심을 다시 불러 일으켰다. 이미지넷 첼린지에서 제공하는 다양한 이미지 데이터와 병렬 컴퓨팅 하드웨어 (GPU)의 발전이 Krizhevsky의 승리의 주요 요인이었다. 그러므로 최근의 딥 컨볼루션 신경망의 성공을 병렬계산을 위한 GPU의 출현과 더불어 ImageNet과 같은 대규모 이미지 데이터의 가용성으로 정의 할 수 있다. 그러나 이러한 요소는 많은 도메인에서 병목 현상이 될 수 있다. 대부분의 도메인에서 ConvNet을 교육하기 위해 대규모 데이터를 수집하려면 많은 노력이 필요하다. 대규모 데이터를 보유하고 있어도 처음부터 ConvNet을 교육하려면 많은 자원과 시간이 소요된다. 이와 같은 문제점은 전이 학습을 사용하면 해결할 수 있다. 전이 학습은 지식을 원본 도메인에서 새 도메인으로 전이하는 방법이다. 전이학습에는 주요한 두 가지 케이스가 있다. 첫 번째는 고정된 특징점 추출기로서의 ConvNet이고, 두번째는 새 데이터에서 ConvNet을 fine-tuning 하는 것이다. 첫 번째 경우, 사전 훈련 된 ConvNet (예: ImageNet)을 사용하여 ConvNet을 통해 이미지의 피드포워드 활성화를 계산하고 특정 레이어에서 활성화 특징점을 추출한다. 두 번째 경우에는 새 데이터에서 ConvNet 분류기를 교체하고 재교육을 한 후에 사전 훈련된 네트워크의 가중치를 백프로퍼게이션으로 fine-tuning 한다. 이 논문에서는 고정된 특징점 추출기를 여러 개의 ConvNet 레이어를 사용하는 것에 중점을 두었다. 그러나 여러 ConvNet 레이어에서 직접 추출된 차원적 복잡성을 가진 특징점을 적용하는 것은 여전히 어려운 문제이다. 우리는 여러 ConvNet 레이어에서 추출한 특징점이 이미지의 다른 특성을 처리한다는 것을 발견했다. 즉, 여러 ConvNet 레이어의 최적의 조합을 찾으면 더 나은 특징점을 얻을 수 있다. 위의 발견을 토대로 이 논문에서는 단일 ConvNet 계층의 특징점 대신에 전이 학습을 위해 여러 ConvNet 계층의 특징점을 사용하도록 제안한다. 본 논문에서 제안하는 방법은 크게 세단계로 이루어져 있다. 먼저 이미지 데이터셋의 이미지를 ConvNet의 입력으로 넣으면 해당 이미지가 사전 훈련된 AlexNet으로 피드포워드 되고 3개의 fully-connected 레이어의 활성화 틀징점이 추출된다. 둘째, 3개의 ConvNet 레이어의 활성화 특징점을 연결하여 여러 개의 ConvNet 레이어의 특징점을 얻는다. 레이어의 활성화 특징점을 연결을 하는 이유는 더 많은 이미지 정보를 얻기 위해서이다. 동일한 이미지를 사용한 3개의 fully-connected 레이어의 특징점이 연결되면 결과 이미지의 특징점의 차원은 4096 + 4096 + 1000이 된다. 그러나 여러 ConvNet 레이어에서 추출 된 특징점은 동일한 ConvNet에서 추출되므로 특징점이 중복되거나 노이즈를 갖는다. 따라서 세 번째 단계로 PCA (Principal Component Analysis)를 사용하여 교육 단계 전에 주요 특징점을 선택한다. 뚜렷한 특징이 얻어지면, 분류기는 이미지를 보다 정확하게 분류 할 수 있고, 전이 학습의 성능을 향상시킬 수 있다. 제안된 방법을 평가하기 위해 특징점 선택 및 차원축소를 위해 PCA를 사용하여 여러 ConvNet 레이어의 특징점과 단일 ConvNet 레이어의 특징점을 비교하고 3개의 표준 데이터 (Caltech-256, VOC07 및 SUN397)로 실험을 수행했다. 실험결과 제안된 방법은 Caltech-256 데이터의 FC7 레이어로 73.9 %의 정확도를 얻었을 때와 비교하여 75.6 %의 정확도를 보였고 VOC07 데이터의 FC8 레이어로 얻은 69.2 %의 정확도와 비교하여 73.1 %의 정확도를 보였으며 SUN397 데이터의 FC7 레이어로 48.7%의 정확도를 얻었을 때와 비교하여 52.2%의 정확도를 보였다. 본 논문에 제안된 방법은 Caltech-256, VOC07 및 SUN397 데이터에서 각각 기존에 제안된 방법과 비교하여 2.8 %, 2.1 % 및 3.1 %의 성능 향상을 보였다.

CO2 파이프라인 수송에서의 N2 불순물이 압력강하에 미치는 영향에 대한 실험적 연구 (Experimental Study on N2 Impurity Effect in the Pressure Drop During CO2 Mixture Transportation)

  • 조맹익;허철;정정열;백종화;강성길
    • 한국해양환경ㆍ에너지학회지
    • /
    • 제15권2호
    • /
    • pp.67-75
    • /
    • 2012
  • 이산화탄소 포집 및 저장기술(Carbon Capture and Storage, CCS)은 발전소, 제철소 등의 대량의 배출원으로부터 포집된 이산화탄소를 압축공정, 정제공정, 수송공정을 거친 후, 지중의 안전한 지질구조 내에 수백, 수천년 이상 안정적으로 저장하는 기술이다. CCS 공정 중 이산화탄소에는 이산화탄소를 발생시키는 연소공정이나 포집 경제되는 공정에서 유입되는 불순물이 섞임으로서 혼합물을 이루게 된다. 혼합물의 성분으로는 대표적으로 $SO_2$, $H_2O$, CO, $N_2$, Ar, $O_2$, $H_2$ 등이 있으며 위 공정들에서 이산화탄소 혼합물에 포함된 불순물들은 전 공정에 영향을 미치게 된다. 본연구에서는 이산화탄소 혼합물 내 다양한 불순물이 수송공정에 미치는 영향을 실험적으로 평가할 수 있도록 혼합물이송공정 모의실험장치를 설계 제작하였으며 이산화탄소 혼합물의 이송공정에 질소불순물이 미치는 영향을 실험적으로 평가하였다. 각 실험조건 마다 증가율의 차이는 있으나 $N_2$비율이 증가할수록 $CO_2-N_2$ 혼합물의 질량유량당 압력강하량 및 비체적이 증가하는 경향을 보였다. 120 bar 및 100 bar 실험조건에서는 혼합물의 상태가 단상 초임계상태이었으며 $N_2$ 조성비 증가에 따른 비체적 및 질량유량당 압력강하 기울기가 크게 변하지 않음을 확인하였다. 70 bar 실험조건에서는 액상, 이상, 기상으로 혼합물의 상이 바뀌었으며 각 상에 따라 질량유량당 압력강하 및 비체적의 기울기가 달라짐을 확인하였다.

상수도 시스템 지진 신뢰성의 합리적 평가를 위한 적정 지반운동예측식 결정 (Determination of proper ground motion prediction equation for reasonable evaluation of the seismic reliability in the water supply systems)

  • 최정욱;강두선;정동휘;이찬욱;유도근;조성배
    • 한국수자원학회논문집
    • /
    • 제53권9호
    • /
    • pp.661-670
    • /
    • 2020
  • 최근 지진재해의 규모가 점차 증대됨에 따라 세계적으로 개별 시설물에 대한 내진성능평가와 관련한 연구가 다수 진행되고 있다. 상수도 시스템은 타 기반 시설에 비해 설치범위가 광범위하고 그 구성요소가 다양해 고려할 것이 많아 지진에 대한 안정성을 정확하고 효과적으로 확보하기 힘든 실정이다. 따라서 지진을 대비한 상수도 시스템의 내진성능 평가 방안을 연구하고 개발할 필요가 있다. 지진에 의한 상수도 시스템의 내진성능을 평가하기 위해 지반운동예측식(Ground Motion Prediction Equation, GMPE)이 활용된다. GMPE는 지진 규모 등과 같은 독립변수 와 PGV (Peak Ground Velocity), PGA (Peak Ground Acceleration)와 같은 지반운동 등을 고려하여 산정하게 된다. 우리나라에서 발생된 높은 강도의 지진 데이터는 현재까지 많이 축적되지 않아 특정 지진에 국한된 데이터를 활용하여 GMPE를 결정하는 등의 연구가 진행되었다. 본 연구에서는 우리나라에서 계측된 지진 데이터를 활용하여 국내 지진 모의에 적합한 GMPE를 선정하고자 하였으며, 이를 위해 기존 국내 지진을 기반으로 산정된 GMPE식을 분석하고 그 결과를 제시하였다. 본 연구를 통해 결정된 적정 GMPE는 상수도관망의 수리학적 내진성능 평가에 직접적으로 활용 가능하다. 즉, 파손확률 모형과의 연계를 통한 지진시 관로 파손률의 정량화가 가능하며, 파손 및 누수에 의한 단수지역 파악 등과 같은 피해범위 산정시 보다 객관적이며 합리적인 결과 도출이 가능하다. 최종적으로 이와 같은 내진 성능 정량화 결과는 지진재해가 발생하였을 경우 그 피해를 최소화할 수 있는 최적 복구방안 마련과 선제적 관망 내진설계의 기준 자료로 활용될 수 있다.

Hardware Approach to Fuzzy Inference―ASIC and RISC―

  • Watanabe, Hiroyuki
    • 한국지능시스템학회:학술대회논문집
    • /
    • 한국퍼지및지능시스템학회 1993년도 Fifth International Fuzzy Systems Association World Congress 93
    • /
    • pp.975-976
    • /
    • 1993
  • This talk presents the overview of the author's research and development activities on fuzzy inference hardware. We involved it with two distinct approaches. The first approach is to use application specific integrated circuits (ASIC) technology. The fuzzy inference method is directly implemented in silicon. The second approach, which is in its preliminary stage, is to use more conventional microprocessor architecture. Here, we use a quantitative technique used by designer of reduced instruction set computer (RISC) to modify an architecture of a microprocessor. In the ASIC approach, we implemented the most widely used fuzzy inference mechanism directly on silicon. The mechanism is beaded on a max-min compositional rule of inference, and Mandami's method of fuzzy implication. The two VLSI fuzzy inference chips are designed, fabricated, and fully tested. Both used a full-custom CMOS technology. The second and more claborate chip was designed at the University of North Carolina(U C) in cooperation with MCNC. Both VLSI chips had muliple datapaths for rule digital fuzzy inference chips had multiple datapaths for rule evaluation, and they executed multiple fuzzy if-then rules in parallel. The AT & T chip is the first digital fuzzy inference chip in the world. It ran with a 20 MHz clock cycle and achieved an approximately 80.000 Fuzzy Logical inferences Per Second (FLIPS). It stored and executed 16 fuzzy if-then rules. Since it was designed as a proof of concept prototype chip, it had minimal amount of peripheral logic for system integration. UNC/MCNC chip consists of 688,131 transistors of which 476,160 are used for RAM memory. It ran with a 10 MHz clock cycle. The chip has a 3-staged pipeline and initiates a computation of new inference every 64 cycle. This chip achieved an approximately 160,000 FLIPS. The new architecture have the following important improvements from the AT & T chip: Programmable rule set memory (RAM). On-chip fuzzification operation by a table lookup method. On-chip defuzzification operation by a centroid method. Reconfigurable architecture for processing two rule formats. RAM/datapath redundancy for higher yield It can store and execute 51 if-then rule of the following format: IF A and B and C and D Then Do E, and Then Do F. With this format, the chip takes four inputs and produces two outputs. By software reconfiguration, it can store and execute 102 if-then rules of the following simpler format using the same datapath: IF A and B Then Do E. With this format the chip takes two inputs and produces one outputs. We have built two VME-bus board systems based on this chip for Oak Ridge National Laboratory (ORNL). The board is now installed in a robot at ORNL. Researchers uses this board for experiment in autonomous robot navigation. The Fuzzy Logic system board places the Fuzzy chip into a VMEbus environment. High level C language functions hide the operational details of the board from the applications programme . The programmer treats rule memories and fuzzification function memories as local structures passed as parameters to the C functions. ASIC fuzzy inference hardware is extremely fast, but they are limited in generality. Many aspects of the design are limited or fixed. We have proposed to designing a are limited or fixed. We have proposed to designing a fuzzy information processor as an application specific processor using a quantitative approach. The quantitative approach was developed by RISC designers. In effect, we are interested in evaluating the effectiveness of a specialized RISC processor for fuzzy information processing. As the first step, we measured the possible speed-up of a fuzzy inference program based on if-then rules by an introduction of specialized instructions, i.e., min and max instructions. The minimum and maximum operations are heavily used in fuzzy logic applications as fuzzy intersection and union. We performed measurements using a MIPS R3000 as a base micropro essor. The initial result is encouraging. We can achieve as high as a 2.5 increase in inference speed if the R3000 had min and max instructions. Also, they are useful for speeding up other fuzzy operations such as bounded product and bounded sum. The embedded processor's main task is to control some device or process. It usually runs a single or a embedded processer to create an embedded processor for fuzzy control is very effective. Table I shows the measured speed of the inference by a MIPS R3000 microprocessor, a fictitious MIPS R3000 microprocessor with min and max instructions, and a UNC/MCNC ASIC fuzzy inference chip. The software that used on microprocessors is a simulator of the ASIC chip. The first row is the computation time in seconds of 6000 inferences using 51 rules where each fuzzy set is represented by an array of 64 elements. The second row is the time required to perform a single inference. The last row is the fuzzy logical inferences per second (FLIPS) measured for ach device. There is a large gap in run time between the ASIC and software approaches even if we resort to a specialized fuzzy microprocessor. As for design time and cost, these two approaches represent two extremes. An ASIC approach is extremely expensive. It is, therefore, an important research topic to design a specialized computing architecture for fuzzy applications that falls between these two extremes both in run time and design time/cost. TABLEI INFERENCE TIME BY 51 RULES {{{{Time }}{{MIPS R3000 }}{{ASIC }}{{Regular }}{{With min/mix }}{{6000 inference 1 inference FLIPS }}{{125s 20.8ms 48 }}{{49s 8.2ms 122 }}{{0.0038s 6.4㎲ 156,250 }} }}

  • PDF