• 제목/요약/키워드: Communication Uncertainty

검색결과 257건 처리시간 0.023초

사다리꼴 형태의 소속 함수와 동적 α_cut 을이용한 개선된 퍼지 이진화 (Improved Fuzzy Binarization Method with Trapezoid type Membership Function and Adaptive α_cut)

  • 우현수;김광백
    • 한국정보통신학회논문지
    • /
    • 제20권10호
    • /
    • pp.1852-1859
    • /
    • 2016
  • 영상 이진화 알고리즘의 효율성은 이진화를 위한 임계치 결정에 있어서의 불확실성의 합리적인 제거와 이진화로 인한 영상 정보의 손실을 최소화하는 데에 있다. 그러한 모호성의 처리 방법으로서 퍼지 이진화 방법이 많이 사용되는데 보통 사용되는 삼각형 타입의 소속 함수와 이진화 임계치를 결정하는 ${\alpha}$_cut 값의 설정 방법이 그 효율성에 영향을 미친다. 다만 기존의 정적인 퍼지 이진화 방법은 명암 대비가 낮은 영상의 경우 그 효율성이 떨어지는 것이 알려져 있다. 본 논문에서 퍼지 이진화 방법의 이러한 문제점을 개선하기 위하여 ${\alpha}$_cut의 동적 결정 방법과 사다리꼴 타입의 소속 함수와 구간 설정 방법을 제안한다. 이 방법은 스트레칭 기법과 같은 정규화 전처리 과정을 밟지 않기 때문에 영상의 정보 손실이 적다. 또한 ${\alpha}$_cut의 동적 결정으로 인해 다양한 영상을 동일 기법으로 보다 정확하게 처리할 수 있다. 야경 영상, 척추 측만증 및 지방종 영상 등 다양한 물채를 포함하고 명암 대비성이 낮은 편인 영상을 대상으로 한 실험에서 제안된 방법이 기존의 퍼지 이진화 방법보다 효과적임이 확인되었다.

잡음 모델 선택을 이용한 Wyner-Ziv 비디오 압축 (Wyner-Ziv Video Compression using Noise Model Selection)

  • 박천호;심혁재;전병우
    • 대한전자공학회논문지SP
    • /
    • 제46권4호
    • /
    • pp.58-66
    • /
    • 2009
  • 최근 경량화 비디오 부호화를 위함 분산 비디오 부호화 기술 (DVC: Distributed Video Coding)에 대한 연구가 활발히 이루어지고 있으며, Wyner-Ziv 부호화 기술은 이의 대표적인 기술로써 각광받고 있다. Wyner-Ziv (WZ) 부호화기는, 영상을, 기존의 인트라 부호화기를 이용하는 키 (Key) 프레임과 WZ 부호화를 하는 WZ 프레임으로 나누어 독립적으로 부호화 한다. WZ 복호화기로 전송된 키 프레임은 복원된 뒤 키 프레임 사이의 WZ 프레임을 추정하는데 사용되며 추정된 WZ 프레임을 보조정보 (Side Information)라고 한다. 보조정보는 WZ 프레임에 대한 정보가 없는 상태에서 추정되므로 필연적으로 WZ 프레임과 다르며 WZ 복호화기에서는 보조정보와 WZ 프레임과의 차이를 가상의 채널 잡음으로 간주한다. WZ 복호화 과정은 가상의 채널잡음을 WZ 복호화기 내에 존재하는 채널코드를 이용하여 제거함으로써 이루어지므로 채널 정보를 정확히 아는 것은 채널코드의 에러정정능력에 큰 영향을 미친다. WZ 복호화기에서는 추정된 WZ 영상만이 존재하므로 정확한 잡음의 양을 알 수 없으며, 일반적으로 선형 움직임에 근거한 키 프레임 간의 차를 하나의 예측 수단으로 사용한다. 또한 이와 같이 예측이 갖는 불확실성으로 채널코드의 효율이 저하되는 것을 막기 위하여 주변의 잡음과 비교를 통한 잘못된 잡음을 정정하는 방법도 제안되었다. 하지만 이런 방법들이 모든 프레임이나 비트 플레인에 존재하는 잡음을 제대로 측정한다고 할 수는 없다. 따라서 본 논문에서는 여러 개의 후보 잡음 모델을 생성한 후, 복호화 과정에서 가장 효율적인 모델을 선택하는 방법을 제안한다. 제안 방법에 대한 실험결과는 최대 0.8 dB의 PSNR이득을 보여준다.

시맨틱 웹 기술혁신의 채택과 확산: 질적연구접근법 (The Adoption and Diffusion of Semantic Web Technology Innovation: Qualitative Research Approach)

  • 주재훈
    • Asia pacific journal of information systems
    • /
    • 제19권1호
    • /
    • pp.33-62
    • /
    • 2009
  • Internet computing is a disruptive IT innovation. Semantic Web can be considered as an IT innovation because the Semantic Web technology possesses the potential to reduce information overload and enable semantic integration, using capabilities such as semantics and machine-processability. How should organizations adopt the Semantic Web? What factors affect the adoption and diffusion of Semantic Web innovation? Most studies on adoption and diffusion of innovation use empirical analysis as a quantitative research methodology in the post-implementation stage. There is criticism that the positivist requiring theoretical rigor can sacrifice relevance to practice. Rapid advances in technology require studies relevant to practice. In particular, it is realistically impossible to conduct quantitative approach for factors affecting adoption of the Semantic Web because the Semantic Web is in its infancy. However, in an early stage of introduction of the Semantic Web, it is necessary to give a model and some guidelines and for adoption and diffusion of the technology innovation to practitioners and researchers. Thus, the purpose of this study is to present a model of adoption and diffusion of the Semantic Web and to offer propositions as guidelines for successful adoption through a qualitative research method including multiple case studies and in-depth interviews. The researcher conducted interviews with 15 people based on face-to face and 2 interviews by telephone and e-mail to collect data to saturate the categories. Nine interviews including 2 telephone interviews were from nine user organizations adopting the technology innovation and the others were from three supply organizations. Semi-structured interviews were used to collect data. The interviews were recorded on digital voice recorder memory and subsequently transcribed verbatim. 196 pages of transcripts were obtained from about 12 hours interviews. Triangulation of evidence was achieved by examining each organization website and various documents, such as brochures and white papers. The researcher read the transcripts several times and underlined core words, phrases, or sentences. Then, data analysis used the procedure of open coding, in which the researcher forms initial categories of information about the phenomenon being studied by segmenting information. QSR NVivo version 8.0 was used to categorize sentences including similar concepts. 47 categories derived from interview data were grouped into 21 categories from which six factors were named. Five factors affecting adoption of the Semantic Web were identified. The first factor is demand pull including requirements for improving search and integration services of the existing systems and for creating new services. Second, environmental conduciveness, reference models, uncertainty, technology maturity, potential business value, government sponsorship programs, promising prospects for technology demand, complexity and trialability affect the adoption of the Semantic Web from the perspective of technology push. Third, absorptive capacity is an important role of the adoption. Fourth, suppler's competence includes communication with and training for users, and absorptive capacity of supply organization. Fifth, over-expectance which results in the gap between user's expectation level and perceived benefits has a negative impact on the adoption of the Semantic Web. Finally, the factor including critical mass of ontology, budget. visible effects is identified as a determinant affecting routinization and infusion. The researcher suggested a model of adoption and diffusion of the Semantic Web, representing relationships between six factors and adoption/diffusion as dependent variables. Six propositions are derived from the adoption/diffusion model to offer some guidelines to practitioners and a research model to further studies. Proposition 1 : Demand pull has an influence on the adoption of the Semantic Web. Proposition 1-1 : The stronger the degree of requirements for improving existing services, the more successfully the Semantic Web is adopted. Proposition 1-2 : The stronger the degree of requirements for new services, the more successfully the Semantic Web is adopted. Proposition 2 : Technology push has an influence on the adoption of the Semantic Web. Proposition 2-1 : From the perceptive of user organizations, the technology push forces such as environmental conduciveness, reference models, potential business value, and government sponsorship programs have a positive impact on the adoption of the Semantic Web while uncertainty and lower technology maturity have a negative impact on its adoption. Proposition 2-2 : From the perceptive of suppliers, the technology push forces such as environmental conduciveness, reference models, potential business value, government sponsorship programs, and promising prospects for technology demand have a positive impact on the adoption of the Semantic Web while uncertainty, lower technology maturity, complexity and lower trialability have a negative impact on its adoption. Proposition 3 : The absorptive capacities such as organizational formal support systems, officer's or manager's competency analyzing technology characteristics, their passion or willingness, and top management support are positively associated with successful adoption of the Semantic Web innovation from the perceptive of user organizations. Proposition 4 : Supplier's competence has a positive impact on the absorptive capacities of user organizations and technology push forces. Proposition 5 : The greater the gap of expectation between users and suppliers, the later the Semantic Web is adopted. Proposition 6 : The post-adoption activities such as budget allocation, reaching critical mass, and sharing ontology to offer sustainable services are positively associated with successful routinization and infusion of the Semantic Web innovation from the perceptive of user organizations.

기술위험 관리와 위험갈등 : 휴대전화 전자파의 인체유해성 논란 (Managing Technological Risk and Risk Conflict : Public Debates on Health Risks of Mobile Phones EMF)

  • 정병걸
    • 과학기술학연구
    • /
    • 제8권1호
    • /
    • pp.97-129
    • /
    • 2008
  • 새로운 기술의 개발과 확산으로 인해 기술 위험의 가능성과 영향이 크게 증가하고 있다. 불확실성을 기본적 속성으로 하는 위험의 특성상 지식의 불확실성 해소는 기술 위험관리의 핵심적 요소라고 할 수 있다. 지식의 불확실성이 기술위험 갈등의 중요한 원인이 되기 때문이다. 그러나 지식 축적만으로 기술위험 갈등이 해소되는 것은 아니다. 기술위험의 성격에 따라서는 기술위험에 대한 합의의 부족이 갈등의 주원인이 될 수 있기 때문이다. 휴대전화 전자파의 인체 유해성 논란은 대표적인 예라고 할 수 있다. 휴대전화 전자파의 인체 유해성 여부에 대해서는 명확한 결론을 내릴 수는 없지만 관련 지식이 꾸준히 축적되어 왔기 때문에 지식의 불확실성은 높지 않다. 산업계는 유해성을 입증할만한 뚜렷한 증거가 없기 때문에 법적 규제는 불필요하다는 입장인 반면 시민단체들은 유해 가능성이 입증되지 않았지만 가능성은 여전히 남아있기 때문에 사전 예방적 차원의 규제가 필요하다는 입장을 취하고 있다. 우리나라의 경우 시민단체의 지속적인 문제제기에 따라 정부는 인체흡수율(SAR) 기준을 설정하고 인체 흡수율 정보를 공개토록 하고 있다. 그러나 시민단체의 입장에서 보면 인체 흡수율 기준은 전신이 아닌 얼굴 부위에만 적용되는 제한적 기준이며, 인체 흡수율 정보도 자율적으로 공개토록 하고 있다는 점에서 완화된 형식적 규제라고 할 수 있다. 예방적 규제를 지지하는 시민단체와 산업계 보호의 관점에서 완화된 규제를 유지하려는 정부간에는 여전히 큰 인식 차이가 존재한다. 휴대전화 전자파의 기술 위험은 기술의 친숙성으로 인해 심각한 위험으로 받아들여지지 않고 있지만 심각한 갈등과 재난을 초래할 가능성도 있다. 따라서 이러한 문제를 예방하기 위해서는 안전의 목표를 경제적 목표와 통합하는 정책 통합과 위험 커뮤니케이션의 촉진을 통해 갈등 가능성과 재난의 발생의 소지를 차단하는 기술위험 관리가 필요하다.

  • PDF

중소제조기업 스마트공장시스템 도입이 관리회계에 미치는 영향 (The Impact of SMEs' Smart Factory Systems Implementation on Management Accounting)

  • 김경일
    • 융합정보논문지
    • /
    • 제10권9호
    • /
    • pp.8-14
    • /
    • 2020
  • 본 연구는 스마트공장시스템이 관리회계에 어떠한 영향을 미치는가를 분석함에 주된 목적이 있다. 국내 108개 중소제조기업으로부터 수집한 데이터를 분석하여 스마트공장시스템의 실행이 관리회계 업무에 중대한 변화를 야기한다는 실증을 도출하고자 하였다. 회귀모형분석을 통하여 스마트공장 특성이 관리회계 범위 중 내부보고, 예산편성, 최신회계기법의 적용, 조직원의 관리회계 직무 등 4개의 측면에서에 긍정적인 영향을 미친다는 결과를 도출하였다. 세부적으로 예산편성의 세분화에 있어서 명세화된 예산편성 소프트웨어의 실행 품질은 유의적 영향을 미치지만 경영환경과 회계기법의 적용간에 부의 상관관계가 발견되었다. 본 연구를 통하여 중소제조기업은 관리회계 실무적 효과를 증진시킬 수 있도록 원가행태의 변동성추적을 통한 생산량, 제품배합결정 등과 같은 경영분석 모듈의 실행에 초점을 두어야 한다는 점을 제안한다.

고속 무선통신 시스템에서 트래픽 부하 예측에 의한 역방향 전송속도 제어 (Reverse link rate control for high-speed wireless systems based on traffic load prediction)

  • 여운영
    • 대한전자공학회논문지TC
    • /
    • 제45권11호
    • /
    • pp.15-22
    • /
    • 2008
  • 1xEV-DO 시스템의 각 단말은 기지국이 전송하는 이진(binary) 제어정보와 고유한 확률모델을 기반으로 자신의 전송속도를 결정한다. 하지만, 이 전송속도 제어방법은 확률적 불확실성으로 인해 동작을 예측하기 어렵고, 역방향 링크의 과부하를 억제할 수 있는 확실한 수단이 없기 때문에, 간섭 제한(interference-limited) 용량을 갖는 CDMA 시스템의 성능을 저하시킬 수 있다. 본 논문에서는 기지국이 역방향 트래픽 부하를 예측하고, 순방향 제어채널을 통해 단말의 전송속도를 효과적으로 제어할 수 있는 방법을 제안한다. 본 논문은 제안한 방법을 다차원 마르코프 프로세스로 모델링하고 기존 방법들과 성능을 비교한다. 분석 결과에 의하면, 제안한 방법은 기존의 방법들과 비교하여 셀에서 지원할 수 있는 최대 전송효율(throughput)을 크게 향상시킴을 알 수 있다.

Segmented Douglas-Peucker Algorithm Based on the Node Importance

  • Wang, Xiaofei;Yang, Wei;Liu, Yan;Sun, Rui;Hu, Jun;Yang, Longcheng;Hou, Boyang
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제14권4호
    • /
    • pp.1562-1578
    • /
    • 2020
  • Vector data compression algorithm can meet requirements of different levels and scales by reducing the data amount of vector graphics, so as to reduce the transmission, processing time and storage overhead of data. In view of the fact that large threshold leading to comparatively large error in Douglas-Peucker vector data compression algorithm, which has difficulty in maintaining the uncertainty of shape features and threshold selection, a segmented Douglas-Peucker algorithm based on node importance is proposed. Firstly, the algorithm uses the vertical chord ratio as the main feature to detect and extract the critical points with large contribution to the shape of the curve, so as to ensure its basic shape. Then, combined with the radial distance constraint, it selects the maximum point as the critical point, and introduces the threshold related to the scale to merge and adjust the critical points, so as to realize local feature extraction between two critical points to meet the requirements in accuracy. Finally, through a large number of different vector data sets, the improved algorithm is analyzed and evaluated from qualitative and quantitative aspects. Experimental results indicate that the improved vector data compression algorithm is better than Douglas-Peucker algorithm in shape retention, compression error, results simplification and time efficiency.

자기유사성 트래픽 조건에서 다중 시간 간격을 이용한 혼잡제어 (Congestion Control with Multiple Time Scale under Self-Similar Traffic)

  • 박동석;나상동
    • 한국정보통신학회논문지
    • /
    • 제9권1호
    • /
    • pp.65-75
    • /
    • 2005
  • 컴퓨터 네트워크에서 전송제어 프로토콜 상에서 다중시간 간격으로 혼잡제어의 지연을 피드백 루프의 시간간격을 조정하여 명시적 예측을 실행해 제어의 단점을 개선하는데 연구한다. 자기 사성은 다양한 네트워크 환경에서 공통적으로 발생하는 현상인 것으로 정체 제어에서 자기 유사성 트래픽의 장거리 상관 구조를 활용할 가능성과 MTS 정체 제어의 프레임워크를 발전시켜, 이 프레임워크가 전송 율 기반 피드백 제어의 성능을 향상시키는 데 시뮬레이션을 통해 트래픽 조건으로 나타낸다. 자기 유사성 트래픽 조건에서 3가지 단계로 구성한다. 먼저 TCP의 모듈 형 확장에서 Tahoe, Reno, Vegas 등 다양한 버전의 TCP에 적용되는 간단한 인터페이스를 통한 함수 호출을 정의하고, 이것이 성능을 크게 향상시킨다. 두 번째로, 광대역 WAN에서 지연-대역폭의 곱이 높을 경우 더욱 심각해지는 사후제어의 불확실성 차이를 해소함으로써 MTS TCP가 기반 피드백 제어에 사전성을 부여한다. 세 번째는 트래픽 제어의 3가지 차원인, 즉 추적 능력, 연결 지속 기간, 공정성이 성능에 미치는 영향 등을 비교 분석하여 입증한다.

퍼지논리를 이용한 α-cut 자동 설정 기반 퍼지 이진화 (An α-cut Automatic Set based on Fuzzy Binarization Using Fuzzy Logic)

  • 이호창;김광백;박현준;차의영
    • 한국정보통신학회논문지
    • /
    • 제19권12호
    • /
    • pp.2924-2932
    • /
    • 2015
  • 영상 이진화 기술은 객체와 배경을 분할하는 과정으로 영상 분석 및 인식 분야에 널리 적용되고 있다. 기존의 이진화 방법은 임계치를 설정하는 과정에서 객체와 배경의 명암 차이가 크지 않을 경우에 불확실성이 존재한다. 이러한 문제점을 개선한 퍼지 이진화는 객체의 특징을 효과적으로 이진화 하지만 ${\alpha}$-cut값을 정적으로 설정하기 때문에 객체의 특징들이 손실된 상태로 이진화 되는 문제점이 있다. 따라서 본 논문에서는 평균, 반복, Otsu 이진화 방법들의 임계치를 이용한 퍼지 소속 함수를 구하여 ${\alpha}$-cut값을 동적으로 설정하는 방법을 제안한다. 다양한 영상을 대상으로 실험한 결과, 제안된 방법은 기존의 이진화 방법 및 퍼지 이진화 방법보다 배경과 객체들의 손실이 적은 상태로 이진화된 것을 확인하였다.

STANDARIZING THE EXTRATERRESTRIAL SOLAR IRRADIANCE SPECTRUM FOR CAL/VAL OF GEOSTATIONARY OCEAN COLOR IMAGER (GOCI)

  • Shanmugam, Palanisamy;Ahn, Yu-Hwan
    • 대한원격탐사학회:학술대회논문집
    • /
    • 대한원격탐사학회 2006년도 Proceedings of ISRS 2006 PORSEC Volume I
    • /
    • pp.86-89
    • /
    • 2006
  • Ocean color remote sensing community currently uses the different solar irradiance spectra covering the visible and near-infrared in the calibration/validation and deriving products of ocean color instruments. These spectra derived from single and / or multiple measurements sets or models have significant discrepancies, primarily due to variation of the solar activity and uncertainties in the measurements from various instruments and their different calibration standards. Thus, it is prudent to examine model-to-model differences and select a standard reference spectrum that can be adopted in the future calibration and validation processes, particularly of the first Geostationary Ocean Color Imager (GOCI) onboard its Communication Ocean and Meterological Satellite (COMS) planned to be launched in 2008. From an exhaustive survey that reveals a variety of solar spectra in the literature, only eight spectra are considered here seeing as reference in many remote sensing applications. Several criteria are designed to define the reference spectrum: i.e., minimum spectral range of 350-1200nm, based completely or mostly on direct measurements, possible update of data and less errors. A careful analysis of these spectra reveals that the Thuillier 2004 spectrum seems to be very identical compared to other spectra, primarily because it represents very high spectral resolution and the current state of the art in solar irradiance spectra of exceptionally low uncertainty ${\sim}0.1%.$ This study also suggests use of the Gueymard 2004 spectrum as an alternative for applications of multispectral/multipurpose satellite sensors covering the terrestrial regions of interest, where it provides spectral converge beyond 2400nm of the Thuillier 2004 spectrum. Since the solar-activity induced spectral variation is about less than 0.1% and a large portion of this variability occurs particularly in the ultraviolet portion of the electromagnetic spectrum that is the region of less interest for the ocean color community, we disregard considering this variability in the analysis of solar irradiance spectra, although determine the solar constant 1366.1 $Wm^{-2}$ to be proposed for an improved approximation of the extraterrestrial solar spectrum in the visible and NIR region.

  • PDF