• 제목/요약/키워드: In-Memory Computing

검색결과 762건 처리시간 0.036초

객체 기반 MPEG-4 재생 기술의 PDA 적응 기법 (Adaptation Techniques of an Object-based MPEG-4 Player to PDA)

  • 김남영;김상욱
    • 한국정보과학회논문지:소프트웨어및응용
    • /
    • 제33권2호
    • /
    • pp.220-230
    • /
    • 2006
  • 컴퓨팅 기술과 다양한 모바일 디바이스의 발전에 따라 모바일 환경에서의 멀티미디어 콘텐츠에 대한 이용도가 증가하고 있다. 현재 PDA에서 제공되는 멀티미디어 콘텐츠는 비디오, 오디오로 이루어진 콘텐츠로 제한되어 있다. MPEG-4는 비디오, 오디오, 이미지, 텍스트, 2차원 객체 등의 멀티미디어 데이타를 효율적으로 저장, 전송 및 표현하기 위한 국제 표준으로 다양한 사용자 상호 작용과 여러 종류의 객체들로 장면을 구성할 수 있다. 또한 현재 대부분의 MPEG-4 콘텐츠는 대부분 데스크 탑 용으로 저작되었기 때문에 PDA 환경에서 제한된 메모리, GUI 등에서 정상적으로 재생할 수 없다. 따라서 본 논문에서는 객체 기반의 MPEG-4 표준을 이용하여 제한된 리소스를 가진 PDA 환경에서 다수의 객체로 장면을 구성하고 사용자 상호 작용이 가능한 MPEG-4 콘텐츠를 재생하기 위한 PDA 적응 기법에 관하여 기술한다. 제안하는 기법은 크게 3가지로 물리적 적응 기법, 리소스 적응 기법, 이벤트 적응 기법으로 나누어진다. 물리적 적응은 재생기 프리젠터에서 이루어지는 부분으로 콘텐츠 저작 환경과 재생 환경의 물리적 차이에 대한 적응 기법이고, 이벤트 적응은 PDA에서 지원하지 않는 이벤트에 대하여 PDA에 적합하게 변형하는 부분이다. 또한 리소스 적응은 제한적인 리소스를 제공하는 PDA에서 MPEG-4 콘텐츠 재생률을 높이기 위한 기법이다. PDA에서의 MPEG-4 재생기는 제안하는 PDA 적응 기법을 이용하여 객체 기반의 MPEG-4 콘텐츠를 정상적으로 재생할 수 있다.

비대칭키 RSA의 𝜙(n) 해독을 위한 역 아기걸음- 2k-ary 성인걸음법 (Reverse Baby-step 2k-ary Adult-step Method for 𝜙((n) Decryption of Asymmetric-key RSA)

  • 이상운
    • 한국인터넷방송통신학회논문지
    • /
    • 제14권6호
    • /
    • pp.25-31
    • /
    • 2014
  • 비대칭키 RSA의 공개키 e와 합성수 n=pq은 알고 있고 개인키 d를 모를 때, ${\phi}(n)=(p-1)(q-1)=n+1-(p+q)$을 구하여 $d=e^{-1}(mod{\phi}(n))$으로 개인키 d를 해독한다. 암호해독은 일반적으로 n/p=q 또는 $a^2{\equiv}b^2$(mod n), a=(p+q)/2,b=(q-p)/2를 구하는 소인수 분해법이 널리 적용되고 있다. 그러나 아직까지도 많은 RSA 수들이 해독되지 않고 있다. 본 논문은 ${\phi}(n)$을 직접 구하는 알고리즘을 제안하였다. 제안된 알고리즘은 이산대수의 아기걸음-거인걸음법과 모듈러 지수연산의 $2^k$-ary법을 적용하였다. 이 알고리즘은 역-아기걸음과 $2^k$-ary 성인걸음법을 적용하여 기본적인 성인걸음법 수행횟수를 $1/2^k$로 줄이고, $m={\lfloor}\sqrt{n}{\rfloor}$의 저장 메모리 용량도 l, $a^l$ > n로 감소시켜 ${\phi}(n)$을 l회 이내로 구하였다.

Qplus-T RTOS를 위한 원격 멀티 태스크 디버거의 개발 (Development of a Remote Multi-Task Debugger for Qplus-T RTOS)

  • 이광용;김흥남
    • 한국정보과학회논문지:컴퓨팅의 실제 및 레터
    • /
    • 제9권4호
    • /
    • pp.393-409
    • /
    • 2003
  • 본 논문에서 인터넷 정보가전과 같은 Qplus-T 내장형 시스템을 위한 멀티 태스크 디버깅 환경에 대해 제안한다. 효과적인 교차 개발을 지원하기 위해 원격 멀티 태스크 디버깅 환경의 구조 및 기능틀을 제안할 것이다. 그리고, 좀더 효율적인 교차 개발 환경의 개발을 위하여 호스트-타겟 사이에 디버깅 커뮤니케이션 아키텍쳐를 개선할 것이다. 본 논문에서 제안하는 Q+Esto라는 원격 개발 도구들은 대화형 쉘, 원격 디버거, 리소스 모니터, 타겟 매니저, 그리고 디버그 에이전트들과 같이 몇 개의 독립된 도구들로 구성된다. 호스트에서 원격 멀티 태스크 디버거를 이용해서, 개발자는 타겟 실행 시스템 위에 태스크들을 생성시키거나 디버그 할 수 있으며, 실행 중인 태스크들에 접속하여 디버그 할 수 있다. 응용 코드는 C/C++ 소스레벨로 활 수 있으며, 어셈블리 레벨 코드로도 볼 수 있다. 그리고, 소스코드, 레지스터들, 지역/전역 변수들, 스택 프레임, 메모리, 그리고 사건 트레이스 등등을 위한 다양한 디스플레이 윈도우들을 포함하고 있다. 타겟 매니저는 Q+Esto 도구들에 의해 공유되는 공통된 기능 즉, 호스트-타겟 커뮤니케이션, 오브젝트 파일 로딩, 타겟 상주 호스트 메모리 풀의 관리, 그리고 타겟 시스템 심볼 테이블 관리 등등의 기능들을 구현한다. 이러한 기능들을 개방형 C API라고 부르는데, Q+Esto의 도구들의 확장성을 크게 개선한다. 그리고, 타겟 매니저와 타겟 시스템 커뮤니케이션을 위한 상대파트 모듈 즉, 디버그 에이전트가 존재하는데, 이것은 타겟의 실시간 운영체제 위에서 데몬 태스크 형태로 수행된다. 디버거를 포함한 호스트 도구로부터의 디버깅 요청을 밟아, 그것을 해석하고 실행하여, 그 결과론 호스트에 보내는 기능을 수행한다.

다중 최소 임계치 기반 빈발 패턴 마이닝의 성능분석 (Performance Analysis of Frequent Pattern Mining with Multiple Minimum Supports)

  • 양흥모;윤은일
    • 인터넷정보학회논문지
    • /
    • 제14권6호
    • /
    • pp.1-8
    • /
    • 2013
  • 거대한 데이터베이스로부터 중요하고 의미 있는 정보를 찾아내기 위해 데이터 마이닝 기법들이 사용되며, 패턴 마이닝은 이러한 데이터 마이닝을 위한 중요한 기법 중에 하나이다. 패턴 마이닝은 거대 데이터베이스로부터 유용한 패턴을 찾아내는 기법이며, 패턴 마이닝 분야 중에 하나인 빈발 패턴 마이닝은 데이터베이스에서 최소 임계치 이상의 빈도수를 가지는 빈발 패턴을 마이닝 한다. 전통적인 빈발 패턴 마이닝은 전체 데이터베이스에 대한 단일 최소 임계치를 기반으로 중요 빈발 패턴을 마이닝 한다. 단일 최소 임계치 모델은 데이터베이스 내 모든 아이템이 동일한 특성을 가진다고 암묵적으로 가정한다. 그러나 실제 응용에서는 각 아이템들이 개별적인 특성을 가지고 있을 수 있으며, 따라서 이를 반영한 패턴 마이닝 기법이 요구된다. 데이터베이스 내 아이템들의 이러한 특성이 반영되지 않은 빈발 패턴 마이닝 모델에서, 중요한 희귀 아이템이 포함된 패턴을 마이닝 하기 위해서는 낮은 최소 임계치를 설정해야 한다. 그러나 너무 낮은 최소 임계치는 의미 없는 아이템들을 포함하는 수많은 패턴을 야기한다. 반대로 높은 최소 임계치는 희귀 아이템이 포함된 패턴을 마이닝 하지 못하는 희귀 아이템 문제라 불리는 딜레마가 발생한다. 이러한 문제의 해결을 위한 초기 연구들은 아이템 빈도수에 따라 데이터를 몇 개의 블록으로 분할하거나 관련 희귀 아이템들을 하나의 그룹으로 만드는 방법을 사용한 근사적 접근법을 제안하였다. 그러나 이러한 기법들은 근사적 방법의 적용에 의해 모든 희귀 패턴을 포함한 빈발 패턴을 마이닝 하지 못한다. 다중 최소 임계치를 고려한 패턴 마이닝 모델은 아이템들의 개별적인 특성을 반영하여 희귀 아이템 문제를 해결하기 위해 제안되었다. 다중 최소 임계치 기반의 빈발 패턴 마이닝 모델에서 각 아이템은 MIS (Minimum Item Support)라고 불리는 개별 최소 임계치를 가지며, 아이템들의 데이터베이스 내 빈도수를 기반으로 계산된다. 다중 최소 임계치 모델은 MIS를 통해 수많은 의미 없는 패턴을 생성하지 않고도 손실 없이 모든 희귀 빈발 패턴을 찾아낸다. 한편, 빈발 패턴을 마이닝 하는 과정에서 후보 패턴들이 생성되며, 단일 최소 임계치 모델에서는 각 후보 패턴의 빈도수가 유일한 최소 임계치와 비교된다. 따라서, 희귀 아이템 문제가 발생할 뿐만 아니라 후보 패턴을 구성하는 아이템들의 특성이 고려되지 않는다. 다중 최소 임계치 모델에서는 이 문제를 다루기 위해 후보 패턴을 구성하는 아이템들의 MIS 값 중에서 가장 작은 MIS 값을 해당 후보 패턴의 최소 임계치로 설정하여 패턴 내 아이템들의 특성을 반영한다. 이를 적용하여 효율적으로 희귀 빈발 패턴을 마이닝 하기 위해 트리 구조 기반의 알고리즘은 빈도수 내림차순으로 트리 내 아이템들을 정렬하는 단일 최소 임계치 모델과는 달리 MIS 내림차순으로 아이템들을 정렬하여 마이닝을 수행한다. 본 논문에서는 다중 최소 임계치 기반의 빈발 패턴 마이닝 알고리즘에 대한 특성을 살펴보고, 일반 단일 임계치 기반 알고리즘과의 성능평가를 수행한다. 성능평가는 실행 속도, 메모리 사용량, 그리고 확장성의 관점에서 수행된다. 성능평가 결과, 다중 최소 임계치 기반의 빈발 패턴 마이닝 알고리즘은 희귀 빈발 패턴을 포함한 모든 빈발 패턴을 단일 임계치 기반의 빈발 패턴 마이닝 알고리즘보다 더 빠른 속도로 마이닝 하였으며, 각 아이템의 최소 임계치 정보를 위한 추가적인 메모리를 필요로 하였다. 또한, 비교 알고리즘들은 좋은 확장성 결과를 보였다.

사용자 간 신뢰관계 네트워크 분석을 활용한 협업 필터링 알고리즘의 예측 정확도 개선 (Enhancing Predictive Accuracy of Collaborative Filtering Algorithms using the Network Analysis of Trust Relationship among Users)

  • 최슬비;곽기영;안현철
    • 지능정보연구
    • /
    • 제22권3호
    • /
    • pp.113-127
    • /
    • 2016
  • 협업 필터링(Collaborative Filtering)은 유용성과 정교성 면에서 가장 성공적인 추천 알고리즘으로 평가받으며 산업계나 학계에서 많이 활용 및 연구되고 있지만, 기본적으로 사용자들이 평가한 점수에만 기반하여 추천결과를 생성하는 한계점이 있다. 이에 본 연구는 사용자가 상품을 구매할 때 자신이 신뢰하는 타인의 추천을 더 적극적으로 수용할 것이라는 점에 착안하여, 사용자의 평점 외에 사용자 간 신뢰관계를 소셜네트워크분석으로 분석한 결과를 추가로 반영하는 추천 알고리즘들을 제안하였다. 구체적으로 본 연구에서는 소셜네트워크분석에서 네트워크 내의 중심적 위치를 나타내는 척도인 내향 및 외향 중심성을 활용하여 사용자 간 유사도를 산출하는 알고리즘들과 사용자 신뢰 네트워크를 탐색하여 추천 대상이 되는 사용자가 직접 간접적으로 신뢰하는 사용자의 평가점수를 보다 높게 반영하는 알고리즘을 제안한 뒤 그 성능을 비교해 보았다. 실제 데이터에 적용하여 분석한 결과, 사용자 신뢰 네트워크의 내향 중심성 지수를 조건 없이 적용한 경우에는 오히려 정확도의 감소만을 야기하는 것으로 나타났고, 일정 임계치 이상의 외향 중심성을 갖는 사용자에 한해 내향 중심성 지수를 고려한 추천 알고리즘은 전통적인 협업 필터링에 비해 약간의 정확도 개선이 이루어짐을 확인할 수 있었다. 아울러, 사용자 신뢰 네트워크를 기반으로 탐색하는 알고리즘이 가장 우수한 성능을 보이는 것을 알 수 있었으며, 전통적인 협업 필터링과 비교해서도 통계적으로 유의한 수준의 정확도의 개선이 이루어짐을 확인할 수 있었다.

확장된 Born 근사에 의한 시추공간 전자탐사 2.5차원 모델링 (Crosshole EM 2.5D Modeling by the Extended Born Approximation)

  • 조인기;서정희
    • 지구물리와물리탐사
    • /
    • 제1권2호
    • /
    • pp.127-135
    • /
    • 1998
  • 전자탐사에서 Born 근사는 이상체내에서의 전기장을 이상체가 없는 균질 매질에서의 일차장으로 대치하는 방법으로 복잡한 전자기 산란(EM scattering)문제를 근사하는데 널리 사용되고 있는 방법이다. 그러나 Born 근사는 이상체의 전도도가 주변 매질에 비하여 너무 크거나, 이상체의 크기가 클 때는 상당히 부정확한 결과를 나타낸다. 확장된 Born근사법은 이러한 Born근사의 문제점을 해결하기 위하여 제안된 방법으로 이상체내의 전기장을 탈분극 텐서와 일차 전기장의 곱으로 근사하는 방법이다. 한편 전자탐사에 3차원 송신원을 사용하는 2차원 모델링은 주로 유한차분법과 유한요소법이 이용되었다. 일반적으로 이들 미분 방정식을 이용하는 2차원 전자탐사 모델링에서 3차원 송신원 문제의 해결을 위하여 Fourier변환을 통해 파수영역(wavenumber domain)으로 이동하는 방법이 사용되어 왔다. 또한 파수영 역에서 계산된 결과는 Fourier 역변환을 통하여 다시 공간영역(space domain)으로 이동해야 하는 번거로움이 있다. 따라서 이들 방법은 계산시간이 많이 걸리고 이상체가 없는 지역도 미소체로 분할해야 하므로 수치계산시 대량의 기억용량이 필요하다. 본 연구에서는 Born근사의 문제점 및 전자탐사 2차원 모델링시 3차원 송신원 문제를 해결할 수 있는 확장된 Born 근사법에 근거한 전자탐사 2.5차원 모델링 프로그램을 개발하였다. 이 모델링 프로그램을 이용하여 수직 자기 쌍극자를 송신원으로 하는 시추공간 전자탐사법에 대한 2차 자기 장을 계산하고 적분 방정식에 의한 3차원 모델링 결과와 비교, 분석하였다. 모든 주파수 대역에서 확장된 Born근사에 의한 2.5차원 모델링 결과가 3차원 모델링 결과와 잘 일치하고 있다. 그러나 이상체의 전도도와 모암의 전도도 차이가 10배 이상의 경우일 때는 두 반응은 상당한 차이를 보인다. 따라서 본 연구에서 개발된 확장된 Born 근사에 의한 2.5차원 모델링은 이상체와 모암의 전도도 차이가 너무 크지 않을 경우 이상체의 위치 및 형상을 파악하는데 효과적일 것으로 기대된다.

  • PDF

T-Cache: 시계열 배관 데이타를 위한 고성능 캐시 관리자 (T-Cache: a Fast Cache Manager for Pipeline Time-Series Data)

  • 신제용;이진수;김원식;김선효;윤민아;한욱신;정순기;박세영
    • 한국정보과학회논문지:컴퓨팅의 실제 및 레터
    • /
    • 제13권5호
    • /
    • pp.293-299
    • /
    • 2007
  • 지능형 배관 검사체(PIG)는 가스나 기름 배관 안을 지나가며 검사체에 장착된 여러 센서로부터 신호(센서 데이타로 불림)들을 취합하는 장치이다. PIG로부터 취합된 센서데이타들을 분석함으로써, 배관의 구멍, 뒤틀림 또는 잠재적으로 가스 폭발의 위험을 가지고 있는 결함들을 발견할 수 있다. 배관의 센서 데이타를 분석가가 분석을 할 때에는 주로 두 가지 분석 패턴을 사용한다. 첫 번째는 센서 데이터를 순차적으로 분석하는 순차적 분석 패턴이고, 두 번째는 특정한 구간을 반복해서 분석하는 반복적 분석 패턴이다. 특히, 센서 데이타를 분석할 때 반복적 분석 패턴이 많이 사용된다. 기존의 PIG 소프트웨어들은 사용자의 요청이 있을 때 마다 서버로부터 센서 데이타들을 오므로, 매 요청마다 네트워크 전송비용과 디스크 액세스 비용이 든다. 이와 같은 방법은 순차적 분석 패턴에는 효율적이지만, 분석 패턴의 대부분을 차지하는 반복적 분석 패턴에는 비효율적이다. 이와 같은 문제는 서버/클라이언트 환경에서 다수의 분석가가 동시에 분석을 할 경우에는 매우 심각해진다. 이러한 문제점을 해결하기 위해 본 논문에서는 배관 센서 데이타들을 여러 개의 시계열 데이타로 생각하고, 효율적으로 시계열 데이타를 캐싱 하는 T-Cache라 부르는 주기억장치 고성능 캐시 관리자를 제안한다. 본 연구는 클라이언트 측에서 시계열 데이타를 캐싱하는 최초의 연구이다. 먼저, 고정된 거리의 시계열 데이타들의 집합을 캐싱 단위로 생각하는 신호 캐시 라인이라는 새로운 개념을 제안하였다. 다음으로, T-Cache에서 사용되는 스마트 커서와 여러 알고리즘을 포함하는 여러 가지 자료구조를 제안한다. 실험 결과, 반복적 분석 패턴의 경우 T-Cache를 사용하는 것이 디스크 I/O측면과 수행 시간 측면에서 월등한 성능 향상을 보였다. 순차적 분석 패턴의 경우에도 T-Cache를 사용하지 않은 경우와 거의 유사한 성능을 보였다. 즉, 캐시를 사용함으로써 발생하는 추가비용은 무시할 수 있음을 보였다.

시맨틱 웹 기술혁신의 채택과 확산: 질적연구접근법 (The Adoption and Diffusion of Semantic Web Technology Innovation: Qualitative Research Approach)

  • 주재훈
    • Asia pacific journal of information systems
    • /
    • 제19권1호
    • /
    • pp.33-62
    • /
    • 2009
  • Internet computing is a disruptive IT innovation. Semantic Web can be considered as an IT innovation because the Semantic Web technology possesses the potential to reduce information overload and enable semantic integration, using capabilities such as semantics and machine-processability. How should organizations adopt the Semantic Web? What factors affect the adoption and diffusion of Semantic Web innovation? Most studies on adoption and diffusion of innovation use empirical analysis as a quantitative research methodology in the post-implementation stage. There is criticism that the positivist requiring theoretical rigor can sacrifice relevance to practice. Rapid advances in technology require studies relevant to practice. In particular, it is realistically impossible to conduct quantitative approach for factors affecting adoption of the Semantic Web because the Semantic Web is in its infancy. However, in an early stage of introduction of the Semantic Web, it is necessary to give a model and some guidelines and for adoption and diffusion of the technology innovation to practitioners and researchers. Thus, the purpose of this study is to present a model of adoption and diffusion of the Semantic Web and to offer propositions as guidelines for successful adoption through a qualitative research method including multiple case studies and in-depth interviews. The researcher conducted interviews with 15 people based on face-to face and 2 interviews by telephone and e-mail to collect data to saturate the categories. Nine interviews including 2 telephone interviews were from nine user organizations adopting the technology innovation and the others were from three supply organizations. Semi-structured interviews were used to collect data. The interviews were recorded on digital voice recorder memory and subsequently transcribed verbatim. 196 pages of transcripts were obtained from about 12 hours interviews. Triangulation of evidence was achieved by examining each organization website and various documents, such as brochures and white papers. The researcher read the transcripts several times and underlined core words, phrases, or sentences. Then, data analysis used the procedure of open coding, in which the researcher forms initial categories of information about the phenomenon being studied by segmenting information. QSR NVivo version 8.0 was used to categorize sentences including similar concepts. 47 categories derived from interview data were grouped into 21 categories from which six factors were named. Five factors affecting adoption of the Semantic Web were identified. The first factor is demand pull including requirements for improving search and integration services of the existing systems and for creating new services. Second, environmental conduciveness, reference models, uncertainty, technology maturity, potential business value, government sponsorship programs, promising prospects for technology demand, complexity and trialability affect the adoption of the Semantic Web from the perspective of technology push. Third, absorptive capacity is an important role of the adoption. Fourth, suppler's competence includes communication with and training for users, and absorptive capacity of supply organization. Fifth, over-expectance which results in the gap between user's expectation level and perceived benefits has a negative impact on the adoption of the Semantic Web. Finally, the factor including critical mass of ontology, budget. visible effects is identified as a determinant affecting routinization and infusion. The researcher suggested a model of adoption and diffusion of the Semantic Web, representing relationships between six factors and adoption/diffusion as dependent variables. Six propositions are derived from the adoption/diffusion model to offer some guidelines to practitioners and a research model to further studies. Proposition 1 : Demand pull has an influence on the adoption of the Semantic Web. Proposition 1-1 : The stronger the degree of requirements for improving existing services, the more successfully the Semantic Web is adopted. Proposition 1-2 : The stronger the degree of requirements for new services, the more successfully the Semantic Web is adopted. Proposition 2 : Technology push has an influence on the adoption of the Semantic Web. Proposition 2-1 : From the perceptive of user organizations, the technology push forces such as environmental conduciveness, reference models, potential business value, and government sponsorship programs have a positive impact on the adoption of the Semantic Web while uncertainty and lower technology maturity have a negative impact on its adoption. Proposition 2-2 : From the perceptive of suppliers, the technology push forces such as environmental conduciveness, reference models, potential business value, government sponsorship programs, and promising prospects for technology demand have a positive impact on the adoption of the Semantic Web while uncertainty, lower technology maturity, complexity and lower trialability have a negative impact on its adoption. Proposition 3 : The absorptive capacities such as organizational formal support systems, officer's or manager's competency analyzing technology characteristics, their passion or willingness, and top management support are positively associated with successful adoption of the Semantic Web innovation from the perceptive of user organizations. Proposition 4 : Supplier's competence has a positive impact on the absorptive capacities of user organizations and technology push forces. Proposition 5 : The greater the gap of expectation between users and suppliers, the later the Semantic Web is adopted. Proposition 6 : The post-adoption activities such as budget allocation, reaching critical mass, and sharing ontology to offer sustainable services are positively associated with successful routinization and infusion of the Semantic Web innovation from the perceptive of user organizations.

GPU Based Feature Profile Simulation for Deep Contact Hole Etching in Fluorocarbon Plasma

  • Im, Yeon-Ho;Chang, Won-Seok;Choi, Kwang-Sung;Yu, Dong-Hun;Cho, Deog-Gyun;Yook, Yeong-Geun;Chun, Poo-Reum;Lee, Se-A;Kim, Jin-Tae;Kwon, Deuk-Chul;Yoon, Jung-Sik;Kim3, Dae-Woong;You, Shin-Jae
    • 한국진공학회:학술대회논문집
    • /
    • 한국진공학회 2012년도 제43회 하계 정기 학술대회 초록집
    • /
    • pp.80-81
    • /
    • 2012
  • Recently, one of the critical issues in the etching processes of the nanoscale devices is to achieve ultra-high aspect ratio contact (UHARC) profile without anomalous behaviors such as sidewall bowing, and twisting profile. To achieve this goal, the fluorocarbon plasmas with major advantage of the sidewall passivation have been used commonly with numerous additives to obtain the ideal etch profiles. However, they still suffer from formidable challenges such as tight limits of sidewall bowing and controlling the randomly distorted features in nanoscale etching profile. Furthermore, the absence of the available plasma simulation tools has made it difficult to develop revolutionary technologies to overcome these process limitations, including novel plasma chemistries, and plasma sources. As an effort to address these issues, we performed a fluorocarbon surface kinetic modeling based on the experimental plasma diagnostic data for silicon dioxide etching process under inductively coupled C4F6/Ar/O2 plasmas. For this work, the SiO2 etch rates were investigated with bulk plasma diagnostics tools such as Langmuir probe, cutoff probe and Quadruple Mass Spectrometer (QMS). The surface chemistries of the etched samples were measured by X-ray Photoelectron Spectrometer. To measure plasma parameters, the self-cleaned RF Langmuir probe was used for polymer deposition environment on the probe tip and double-checked by the cutoff probe which was known to be a precise plasma diagnostic tool for the electron density measurement. In addition, neutral and ion fluxes from bulk plasma were monitored with appearance methods using QMS signal. Based on these experimental data, we proposed a phenomenological, and realistic two-layer surface reaction model of SiO2 etch process under the overlying polymer passivation layer, considering material balance of deposition and etching through steady-state fluorocarbon layer. The predicted surface reaction modeling results showed good agreement with the experimental data. With the above studies of plasma surface reaction, we have developed a 3D topography simulator using the multi-layer level set algorithm and new memory saving technique, which is suitable in 3D UHARC etch simulation. Ballistic transports of neutral and ion species inside feature profile was considered by deterministic and Monte Carlo methods, respectively. In case of ultra-high aspect ratio contact hole etching, it is already well-known that the huge computational burden is required for realistic consideration of these ballistic transports. To address this issue, the related computational codes were efficiently parallelized for GPU (Graphic Processing Unit) computing, so that the total computation time could be improved more than few hundred times compared to the serial version. Finally, the 3D topography simulator was integrated with ballistic transport module and etch reaction model. Realistic etch-profile simulations with consideration of the sidewall polymer passivation layer were demonstrated.

  • PDF

XMLA를 사용한 OLAP과 데이타 마이닝 분석이 가능한 리포팅 툴의 구현 (Implementation of Reporting Tool Supporting OLAP and Data Mining Analysis Using XMLA)

  • 최지웅;김명호
    • 한국정보과학회논문지:컴퓨팅의 실제 및 레터
    • /
    • 제15권3호
    • /
    • pp.154-166
    • /
    • 2009
  • 기업 운영에서 발생하는 데이타의 수집과 통합에서부터 의사결정을 위한 정보의 분석 및 그 결과로의 접근을 제공하기 위한 BI 환경에서 최종 사용자들을 위한 프론트-엔드 툴로서는 데이터베이스 쿼리 및 리포팅 툴, OLAP 툴, 데이타 마이닝 툴이 대표적이다. 데이타베이스 쿼리 및 리포팅 툴은 SQL 쿼리 결과 셋을 반영하는 워드프로세서가 생성하는 문서 수준의 정교한 동적 문서의 생성과 웹 환경을 통한 문서 배포 능력이 장점이지만 데이타 소스가 RDBMS로 제한되어 있다. 반면, OLAP 툴과 데이타 마이닝 툴은 각기 고유한 방식으로 데이타를 분석할 수 있는 능력은 강력하지만 차트와 표 등의 제한적인 컴포넌트들만으로 분석 결과를 제공할 수 있다는 한계를 가지고 있다. 본 논문에서는 상호 보완적으로 사용될 수 있는 BI 환경을 위한 프론트-엔드 툴들을 통합하였다. 본 논문에서 제안하는 리포팅 툴은 RDBMS에서 데이타를 추출하기 위한 SQL 기반의 쿼리 편집기만을 내장한 기존의 리포팅 툴과 달리 OLAP과 데이타 마이닝을 위한 쿼리 편집기를 추가하여 OLAP과 데이타 마이닝 서버로부터도 데이터를 추출할 수 있다. 그리고 기존의 리포팅 툴은 동일한 문서를 다수의 사용자들이 조회하는 상황에서 반복된 문서 생성을 피하기 위하여 서버 측에서 문서를 생성하는 구조를 갖지만 이 시스템은 다수의 사용자들을 위한 문서배포 목적이 아닌 사용자들이 데이타 분석 목적으로 서로 다른 문서를 생성하는 상황에 적합하도록 서버 측에 비해 제한된 리소스 환경을 갖는 클라이언트 측에서 동작하는 리포트 뷰어에서 대량의 데이타를 포함하는 문서를 생성할 수 있는 구조와 처리방식을 갖고 있다. 또한 이 시스템에서 접근하는 세가지 종류의 데이타 소스에서 추출한 데이타들을 연계하여 하나의 문서에서 통합할 수 있도록 하는 자료구조를 갖추고 있다. 마지막으로 이 시스템은 특정 벤더의 OLAP과 데이타 마이닝 서버에 종속적으로 동작하지 않기 위하여 웹 서비스 기반의 XMLA를 이들 서버와의 통신 프로토콜로써 선택하였다.