• 제목/요약/키워드: AI ethics Measurement indicators

검색결과 3건 처리시간 0.016초

인공지능 윤리원칙 기반의 인격권 및 재산보호를 위한 인공지능 윤리 측정지표에 관한 연구 (A Study on the Artificial Intelligence Ethics Measurement indicators for the Protection of Personal Rights and Property Based on the Principles of Artificial Intelligence Ethics)

  • 소순주;안성진
    • 인터넷정보학회논문지
    • /
    • 제23권3호
    • /
    • pp.111-123
    • /
    • 2022
  • 지능정보화 사회에서 가장 핵심으로 발전하고 있는 인공지능은 인간에게 편의성과 긍정적인 삶의 변화를 가져오고 있다. 하지만 인공지능 발전과 함께 인간의 인격권과 재산이 위협받고, 윤리적인 문제가 발생하는 사례도 증가하고 있기 때문에 그에 따른 대안이 필요하다. 본 연구에서는 인공지능의 역기능에서 가장 쟁점화되고 있는 인공지능 윤리(Artificial Intelligence Ethics) 문제를 인공지능 윤리원칙과 구성요소 기반 하에 우선적으로 인간의 인격권과 재산을 보호할 수 있도록 인공지능 윤리 측정지표를 연구, 개발하는 데 목표를 두었다. 인공지능 윤리 측정지표를 연구, 개발하기 위해 다양한 관련 문헌과 전문가 심층 면접(FGI), 델파이 설문조사를 실시하여 43개 항목의 윤리 측정지표를 도출하였다. 설문조사와 통계분석에 의하여 윤리 측정지표에 대한 기술통계량 분석, 신뢰도 분석, 상관관계 분석으로 40개 항목의 인공지능 윤리 측정지표를 확정하여 제안하였다. 제안된 인공지능 윤리 측정지표는 인공지능 설계, 개발, 교육, 인증, 운영, 표준화 등에 활용될 수 있으며, 안전하고 신뢰할 수 있는 인공지능 발전에 기여할 수 있을 것이다.

인공지능 로봇의 위험성 유형별 측정지표 개발 (Development of Measurement Indicators by Type of Risk of AI Robots)

  • 송현경
    • 인터넷정보학회논문지
    • /
    • 제25권4호
    • /
    • pp.97-108
    • /
    • 2024
  • 인공지능 로봇의 산업화가 활발해짐에 따라 윤리적, 기술적 문제가 심각해지고 있음에도 위험성에 관한 연구는 미흡하다. 이러한 실정에서 연구자는 인공지능 로봇의 신체, 권리, 재산, 사회적 위험성을 측정할 수 있는 검증된 지표 52개를 개발하였다. 인공지능 로봇의 위험성 유형별 측정지표 개발을 위해 IRB 심의 이후, 전문가 11명에게 심층 면접하였다. 또한 현장성 검증을 위해 인공지능 로봇이 도입될 수 있는 여러 분야 종사자 328명에게 설문 조사하였으며, 타당성 및 신뢰성 측정을 위해 탐색적 요인분석과 신뢰도 분석, 변수 계산을 위한 상관관계 분석과 다중 회귀분석 등 통계 검증하였다. 이 논문에서 제시하는 측정지표가 표준화된 인공지능 로봇의 개발·인증·교육·정책 등에 널리 활용되어, 사회적으로 공감받고 안전한 인공지능 로봇 산업화의 초석이 되기를 기대한다.

Research on the evaluation model for the impact of AI services

  • Soonduck Yoo
    • International Journal of Internet, Broadcasting and Communication
    • /
    • 제15권3호
    • /
    • pp.191-202
    • /
    • 2023
  • This study aims to propose a framework for evaluating the impact of artificial intelligence (AI) services, based on the concept of AI service impact. It also suggests a model for evaluating this impact and identifies relevant factors and measurement approaches for each item of the model. The study classifies the impact of AI services into five categories: ethics, safety and reliability, compliance, user rights, and environmental friendliness. It discusses these five categories from a broad perspective and provides 21 detailed factors for evaluating each category. In terms of ethics, the study introduces three additional factors-accessibility, openness, and fairness-to the ten items initially developed by KISDI. In the safety and reliability category, the study excludes factors such as dependability, policy, compliance, and awareness improvement as they can be better addressed from a technical perspective. The compliance category includes factors such as human rights protection, privacy protection, non-infringement, publicness, accountability, safety, transparency, policy compliance, and explainability.For the user rights category, the study excludes factors such as publicness, data management, policy compliance, awareness improvement, recoverability, openness, and accuracy. The environmental friendliness category encompasses diversity, publicness, dependability, transparency, awareness improvement, recoverability, and openness.This study lays the foundation for further related research and contributes to the establishment of relevant policies by establishing a model for evaluating the impact of AI services. Future research is required to assess the validity of the developed indicators and provide specific evaluation items for practical use, based on expert evaluations.