윤리 가이드라인
투명성과 설명가능성
AI 기술이 사회 전반에 활용되면서 알고리즘의 투명성과 설명가능성은 중요한 윤리 기준으로 자리 잡고 있습니다.
대한인공지능윤리협회는 AI 시스템이 어떤 기준과 원리로 작동하는지 이해할 수 있도록 돕고,
사용자가 결과를 신뢰할 수 있는 환경을 만들기 위한 윤리 기준과 가이드라인을 제시합니다.
특히 AI가 내리는 판단과 예측이 사회적 의사결정에 영향을 미치는 만큼
투명한 정보 공개와 이해 가능한 설명 체계를 통해 책임 있는 AI 활용 문화를 확산하는 데 목적을 두고 있습니다.
알고리즘 투명성
-
추천 시스템의 주요 기준 공개
-
자동화된 의사결정의 로직 설명
-
데이터 처리 과정의 문서화
-
알고리즘 설계 및 운영 기준의 투명한 공개
-
데이터 수집·활용 목적에 대한 명확한 고지
-
알고리즘 편향 가능성에 대한 점검 및 공개
-
AI 시스템 운영에 대한 책임 주체 명확화
설명가능성 보장
-
대출 거부 사유 명확한 설명
-
의료 진단 AI의 판단 근거 제시
-
채용 AI의 평가 기준 공개
-
AI 의사결정 결과에 대한 사용자 설명 제공
-
자동화된 판단 결과에 대한 이의 제기 절차 마련
-
AI 판단 과정에 영향을 준 주요 요소 안내
-
사용자 요청 시 AI 판단 근거에 대한 추가 설명 제공




