서론
지진, 호우, 태풍, 화재 등 긴급한 상황에서 재난 알림은 소리 또는 텍스트 형태로 주로 전달되지만 청각장애인은 소리를 통한 알림을 인지할 수 없으며 문자를 통한 알림의 인지율도 비장애인에 비하여 상대적으로 낮은 편으로서 일반적인 재난알림 수단을 통한 정보수신이 원활하지 않은 경우가 많다(Son et al., 2018; Kim et al., 2017; Son et al., 2021). 이와 같은 이유로 일본의 대규모 지진 발생 시의 피해 사례(Takayama, 2017)를 보면 청각장애인은 재난 발생 사실을 이틀 동안 전혀 인지하지 못한 경우도 있었으며 1995년의 고베 지진의 경우 청각장애인의 사망률은 비장애인에 비하여 4.5배로 높았다. 또한 청각장애인은 사회경제적 특성상 주된 언어가 수화이다 보니 이준우와 김연신(Lee et al., 2011)의 조사에 의하면 241명의 조사대상자 중 문해능력이 없는 경우가 68명으로 28.2%에 달했다. 따라서, 상당한 수의 청각장애인에게는 문자가 재난안전 긴급정보 전달에 효율적이지 못할 수 있는 것으로 볼 수 있다. 아울러서 재난 대응 인력의 경우에 청각장애인에 대처하는 방법을 훈련받지 못한 경우가 많아(Engelman et al., 2013; Skøta et al., 2017) 재난 구조 상황에서도 청각장애인과 구조 등 재난 대응인력 사이에 효율적인 의사 소통 방안이 필요한 것을 알 수 있다. 이에 따라 청각장애인이 재난에 상당히 취약한 계층임을 알 수 있으며 청각장애인의 인지 특성을 고려한 재난안전과 관련된 긴급정보 전달과 소통 수단이 필요한 것을 파악할 수 있다.
다른 한편으로 최근의 지구 평균 온도 상승에 따른 기후변화로 인하여 태풍과 호우 등의 극한 기상에 의한 재난 발생이 급격하게 증가하고 있어 신속하고 안정적이며 효율적인 재난정보 전달에 대한 국민적 관심이 증가하고 있고 효과적인 재난 대응을 위한 현장 맞춤형 정보 전달의 요구가 증대되고 있다. 최근 2022년 8월의 서울 지역의 집중호우 재난 사례에서 기후불평등이 존재하며(Park et al., 2022) 호우 경보가 사전에 발령되었음에도 홍수에 의하여 심각한 인명과 재산피해가 발생한 것을 보면 이와 같은 정보 전달의 신속성과 정보에 대한 이해도의 중요성이 계속적으로 높아지는 것을 확인할 수 있다.
이에 재난안전과 관련된 긴급상황을 보다 신속하고 명확하게 전달할 수 있는 수단으로 청각장애인이 바로 인지하여 행동에 옮길 수 있게 하는 단순화된 그림문자 형태인 픽토그램이 재난알림에 보다 효율적일 수 있는 것으로 연구되었다(Son et al., 2018; Fujimori et al., 2007; Hosono et al., 2014). 특히 Fujimori et al. (2007)은 재난알림과 와 관련된 일련의 재난 대응 요령을 Fig. 1과 같이 일련의 픽토그램으로 형상화 하는 것을 연구하였다. Hosono et al. (2014)의 사례에서는 청각장애인 뿐만 아니라 언어장애자, 외국인과의 소통에의 효율성도 연구되었다. 미국의 사례(Clawson et al., 2012)에서는 해외에 구호를 위해 파견된 야전병원에서 다른 언어를 사용하는 지역 주민과의 소통을 위해 픽토그램을 사용하는 방안을 구현하고 이 방안이 효과가 있는 것을 검증하였다.
Fig. 1. Example of arrangement of pictograms for earthquake warning and response instructions (Fujimori et al., 2007)
다른 한편으로 인공신경망을 이용한 인공지능 기반의 대규모 시스템은 일반 텍스트 자유어를 기반으로 이에 해당하는 형상화된 새로운 그림을 생성할 수 있는 정도로 발달하였다(Ramesh et al., 2022). 여러 분야에 적용되고 있는 텍스트 분석에 효율적인 방법으로는 Bag of Words 모델과 워드 임베딩(Word2vec, Word embedding to vector) 등이 있다(Eo et al., 2019). Bag of Words는 주어진 세트의 텍스트에서 특정 단어의 빈도를 분석하고 이를 시각화할 수 있다. 워드 임베딩은 딥러닝 방법을 적용하여 단어를 벡터로 나타내는 프로세스이다.
본 논문에서는 픽토그램을 활용하여 재난안전과 관련된 알림을 중앙 및 지방 방재관계기관에서 청각장애인에게 전달하는 시스템을 개발하고 여기에 인공신경망을 이용하여 텍스트 형태의 재난문자를 분석하여 중요 텍스트를 추출하고 이를 기반으로 픽토그램과의 연관을 훈련시켜 재난알림을 픽토그램으로 자동적으로 변환하여 표출하는 방안을 제시하고자 한다.
본론
연구의 목적
본 연구에서는 청각장애인과 같이 재난안전 알림을 청각적인 방법이나 문자를 통해서 인지에 어려움을 겪는 재난안전취약계층에게 재난안전 관련 긴급알림을 그림 형태의 픽토그램 형식으로 제공하여 보다 신속하고 정확하게 재난 발생 사실과 재난 유형을 식별하고 이에 대응할 수 있도록 하는 픽토그램 기반의 재난안전 긴급알림 전달 시스템을 개발하고자 하였다. 이를 위해 먼저 개발 중인 청각장애인 재난안전 긴급알림 전달시스템의 구성을 제시하고 여기에 인공지능 기반의 텍스트 분석 및 재난문자의 픽토그램과의 매칭 훈련을 통해 재난문자 발령시 자동적으로 이에 맞는 픽토그램이 표출될 수 있는 시스템을 제시하고자 하였다.
연구의 방법
본 연구에서는 개발 중인 픽토그램 기반의 재난안전 긴급알림 시스템을 위한 요구조건과 기능 및 구성을 분석하고 인공지능을 활용하여 재난문자를 픽토그램을 자동으로 변환하는 모듈이 추가될 수 있는 프로세스를 식별하고자 하였다. 그리고 특정 기간 동안의 재난 문자를 분석하여 중요 토픽을 추출하여 토픽 위주로 필요한 픽토그램을 식별할 수 있도록 하였다. 또한 트레이닝과 테스팅을 조합하여 단계적으로 재난문자 기반의 픽토그램 자동 추출이 점진적으로 이루어질 수 있는 방안을 도출하고자 하였다.
청각장애인 재난안전 긴급알림 시스템
본 연구에서 다루는 청각장애인 재난안전 긴급알림 시스템은 청각장애인을 대상으로 서비스를 제공하고자 하는 지방자치단체 등에서 사용이 가능할 수 있도록 하는 시스템을 개발하는 것이었다. 이에 따라 시스템의 요구조건을 Table 1과 같이 수행 계획에서 기상청의 요구사항을 기반으로 정리한 재난정보에 대한 취득과 전달에 관련된 세부 항목 기반으로 식별하고 이에 대응하는 시스템의 기능을 도출하여 Table 2와 같이 식별하였다.
Table 1. Requirement analysis for hearing impaired emergency alert system
Table 2. Functional definition for hearing impaired emergency alert system
개발되는 시스템에서는 청각장애인에게 먼저 스마트폰앱 또는 스마트워치 앱을 통해서 픽토그램이 표출될 수 있도록 하였으며 재난안전 긴급정보를 행정안전부의 재난문자, 기상청의 기상특보, 환경부의 미세먼지 정보 등을 가져와서 이를 분석하여 1차적으로는 수동적으로 재난 정보에 해당되는 픽토그램을 선택하여 표준프로토콜로 청각장애인의 모바일 디바이스와 댁내에 본 연구의 메인 과제에서 같이 개발되는 청각장애인의 가정에 설치되어 스마트 LCD와 스마트 배게 등을 통해 재난안전 긴급정보를 전달할 수 있는 댁내시스템을 통해 청각장애인에게 픽토그램을 통하여 신속하고 정확하게 재난안전과 관련된 긴급정보가 전달될 수 있도록 시스템의 구성이 Fig. 2와 같이 도출 되었다. 시스템의 중간 과정에서는 픽토그램을 포함하는 표준프로토굴(CAP)이 구축되어 원활한 정보 전달이 이루어질 수 있도록 하였다.
Fig. 2. Disaster-safety emergency alert system for hearing impaired
인공지능 기반의 청각장애인 재난안전 긴급알림 시스템
픽토그램 정보 수집
재난과 관련된 픽토그램을 표출하기 위해서 먼저 다양한 재난유형과 관련된 픽토그램과 재난 대응 요령과 관련된 픽토그램이 Fig. 3와 같이 수집되어 데이터베이스화 될 수 있도록 하였다. 구축되는 픽토그램 데이터베이스는 재난문자 기반의 픽토그램 자동표출을 위한 트레이닝과 테스팅에 사용될 수 있도록 구분되어 구축되었다. 또한 구축되는 픽토그램 데이터베이스는 재난유형 및 대응요령과 1:1 매칭이 될 수 있도록 1차적인 구축이 이루어 졌다.
Fig. 3. Examples of pictograms for disaster types and disaster responses
재난문자 텍스트 분석
인공지능 기반의 청각장애인을 위한 재난안전 긴급알림 시스템 개발을 위해 입력으로 사용하게 될 재난문자에 대한 텍스트 분석을 수행하였다. 텍스트 분석에 사용된 재난 문자는 공공데이터포털(https://www.data.go.kr)에서 추출한 2020년 1월 26일부터 2021년 1월 31일까지 1년 동안 서울시의 각 구청에서 발송한 6,474건의 재난문자이다. 수집된 재난문자는 재난안전 긴급알림과 관련된 텍스트 분석에 앞서 먼저 키워드 분석을 통해 코로나바이러스와 같이 긴급성이 상대적으로 떨어지는 재난문자는 제외되었다. 따라서, 코로나, 확진자 등의 코로나 바이러스 관련 재난문자를 키워드 필터링을 통해 모두 제외한 결과 6,474건의 재난문자는 243개로 축소되었다.
필터링된 재난문자는 토큰닝을 통해 정보화 되고 딥러닝 기반의 Bag of Words 분석을 통해 반복되는 중요 키워드를 식별할 수 있었다. Fig. 4는 상위 9개 토픽에 대한 텍스트 분석 결과의 Bag of Words를 보여준다. 여기에서 하천, 집중호우, 금지사항, 산사태, 화재 관련 주의보, 태풍 등 중요 재난 토픽과 연관되는 키워드를 추출할 수 있었다.
Fig. 4. Bag of words for disaster alert text messages for 8 major topics in the city of Seoul
인공지능 기반 청각장애인 재난안전 긴급알림 시스템 개발
텍스트 형태의 재난문자를 일련의 픽토그램 형태의 정보로 변환하기 위해 재난문자를 벡터화하여 상응되는 픽토그램에 인공신경망을 훈련시키고 이를 기반으로 재난 발생 시 재난문자 기반으로 신속하게 픽토그램이 자동으로 생성되어 전달될 수 있는 시스템을 Fig. 5 및 Fig. 6과 같은 구성과 프로세스가 도출되었다.
Fig. 5. Structural diagram for AI based pictogram emergency alert system
Fig. 6. The stages of the AI based emergency alert system for hearing impaired
시스템은 3단계로 운용된다. 초기에는 재난문자에 대응하는 픽토그램의 조합을 수동으로 생성하는 동시에 인공신경망의 훈련에 사용하고, 일정 수준으로 인공신경망이 훈련되면 시스템이 반자동으로 운용되어 인공신경망이 픽토그램의 조합을 생성하여 제시하고 이를 시스템 사용자가 확인하여 전달하는 동시에 인공신경망에 훈련하고, 인공신경망 제시 픽토그램 조합의 오류율이 일정 수준 이하로 줄어들 경우 자동모드로 운영하여 재난문자가 수신 즉시 픽토그램의 조합이 생성될 수 있도록 하였다. 생성된 픽토그램 조합은 정보통신망을 통해 휴대폰, 스마트워치, 댁내 IT 장비로 전달하여 청각장애인 재난피해를 최소화할 수 있도록 하였다.
결론
본 시스템은 재난정보를 수집하여 재난정보에 대응하는 픽토그램을 전달하는 시스템으로 재난알림 취약계층인 청각장애인이 직관적으로 재난에 대처하는데 도움을 줄 수 있다. 이와 같은 시스템 개발의 첫번째 단계로 재난문자를 기반으로 픽토그램을 수동으로 선택하여 재난정보를 전달하는 시스템이 먼저 개발되었고 여기에 훈련과 검증을 조합하여 재난문자를 기반으로 인공지능을 통해 자동적으로 픽토그램으로 변환할 수 있는 시스템의 개선안이 도출 되었다. 본 연구에서는 제시되는 픽토그램에 대한 청각장애인 개개인에 따라 이해와 평가가 다를 수 있어 혼란을 유발할 수 있는 위험요소에 대한 분석 및 대응 방안은 도출되지 못하여 실제 적용을 위해서는 리빙랩 등을 통한 후속 연구를 통한 보완이 필요하다. 본 시스템이 완성된 후에는 지방자치단체 등에서 청각장애인을 위한 맞춤형 서비스로 운영될 수 있으며 청각장애인 뿐만 아니라 언어장애인과 외국인에게도 재난 정보를 신속하고 정확하게 전달될 수 있도록 서비스가 가능할 것으로 기대된다.
Acknowledgement
이 논문은 행정안전부 국민수요 맞춤형 생활안전 연구개발사업의 지원을 받아 수행된 연구임(2021-MOIS61-003).
References
- Clawson, T.H., Leafman, J., Nehrenz, G.M., Kimmer, Sl. (2012). "Using pictograms for communication." Military Medicine, Vol. 177, No. 3, pp. 291-295. https://doi.org/10.7205/MILMED-D-11-00279
- Engelman, A., Ivey, S.L., Tseng, W., Dahrouge, D., Brune, J., Neuhauser, L. (2013). "Responding to the deaf in disasters: Establishing the need for systematic training for state-level emergency management agencies and community organizations." BMC Health Services Research, Vol. 13, No. 84, pp. 1-10. https://doi.org/10.1186/1472-6963-13-1
- Eo, G.-S., Lee, K.-C. (2019) "Investigating opinion mining performance by combining feature selection methods with word embedding and BOW (Bag-of-Words)." Vol. 17, No. 2, pp. 163-170.
- Fujimori, M., Ito, K., Durst, M.J., Hasida, K. (2007). "Experimental evaluation of emotional awareness regarding arrangements and animations of pictograms." Kansei Engineering and Emotion Research 2007 (KEER2007), Kansei, Japan.
- Hosono, N., Inoue, H., Nakanishi, M., Tomita, Y. (2014). "Urgent communication method for deaf, language dysfunction and foreigners." International Conference on Computers for Handicapped Persons, ICCHP 2014: Computers Helping People with Special Needs, Paris, France, pp. 397-403.
- Kim, S.-D., Lee, S.-H., Choi, K.-H., Cheung, C.-S. (2017). "A comparative study of on-site action manual for people with disaster vulnerability." Journal of the Society of Disaster Information, Vol. 13, No. 2, pp. 155-162.
- Lee, J.-W, Kim, Y.-S. (2011). "A study on the effects of socio-economic characteristic of people with hearing impairment on the occurrence of information gap." Journal of Rehabilitation Research, Vol. 15, No. 4, pp. 159-182.
- Park, J.-H., Lim, C.-H. (2022). "Climate ineqaulity and spatial evaluation in climate disaster: Flood in the city of Seoul." The Korean Socity of Climate Change Research 2022 Second-Half Year Conference, p. E-26.
- Ramesh, A., Dhariwal, P., Nichol, A., Chu, C., Chen, M. (2022). "Hierarchical text-conditional image generation with clip latents." arXiv, 2204.06125.
- Skota, L., Jeppesen,T., Mellentin, A.I., Elklit, A. (2017). "Accessibility of medical and psychosocial services following disasters and other traumatic events: experiences of Deaf and hard-of-hearing individuals in Denmark." Disability and Rehabilitation, Vol. 39, No. 24, pp. 2468-2476. https://doi.org/10.1080/09638288.2016.1236154
- Son, J.-S., Yi, E.-S. (2018). "A study on a warning pictogram system for the hearing-impaired - Focusing on disaster and safety accident situations." Archives of Design Research, Vol. 31, No. 3, pp.151-163. https://doi.org/10.15187/adr.2018.08.31.3.151
- Son, M.-H., Kweon, I.-R., Jung, T.-H., Lee, H.-J. (2021). "Demonstration of disaster information and evacuation support model for the safety vulnerable groups." Journal of the Society of Disaster Information, Vol. 17, No. 3, pp. 465-486. https://doi.org/10.15683/KOSDI.2021.9.30.465
- Takayama, K. (2017). "Disaster relief and crisis intervention with deaf communities: Lessons learned from the Japanese deaf community." Journal of Social Work in Disability & Rehabilitation, Vol. 16, No. 3-4, 247-260. https://doi.org/10.1080/1536710X.2017.1372241