공정성과 비차별

AI 기술은 사회 전반의 다양한 의사결정 과정에 활용되는 만큼,
특정 개인이나 집단에 불리하게 작용하지 않도록 공정하게 설계되고 운영되어야 합니다.

성별, 인종, 연령, 장애 등 다양한 요소로 인해 차별적 결과가 발생하지 않도록
데이터와 알고리즘 전반에서 공정성을 고려하는 것이 중요합니다.

대한인공지능윤리협회는 학습 데이터의 다양성 확보와 알고리즘 편향 점검을 통해 차별 가능성을 최소화하고,
모든 사용자가 AI 서비스를 차별 없이 이용할 수 있는 공정하고 포용적인 AI 환경 조성을 위해 노력하고 있습니다.

편향 제거

  • 학습 데이터의 다양성 확보

  • 정기적인 편향성 테스트 수행

  • 소수 집단에 대한 성능 모니터링

  • 데이터 수집 단계에서의 편향 요소 점검

  • 알고리즘 결과에 대한 차별 영향 분석 수행

  • 편향 발생 시 모델 개선 및 재학습 절차 마련

  • AI 서비스 운영 과정에서 지속적인 편향 모니터링

공정한 접근성

  • 장애인을 위한 접근성 기능

  • 다국어 지원

  • 소외 계층 고려한 UI/UX

  • 고령자를 고려한 쉬운 인터페이스 설계

  • 시각·청각 장애인을 위한 보조 기능 지원

  • 디지털 접근성 가이드라인 준수

  • 다양한 기기 및 환경에서 이용 가능한 서비스 제공

매거진

AI 기술이 사회에 미치는 영향과 책임

AI 기술이 사회에 미치는 영향과 책임

AI가 만드는 사회 변화, 우리는 무엇을 준비해야 할까

AI가 만드는 사회 변화, 우리는 무엇을 준비해야 할까

AI 시대의 개인정보 보호, 무엇이 달라질까

AI 시대의 개인정보 보호, 무엇이 달라질까

온라인 상담 카카오톡 상담 카카오톡 상담 카카오톡 상담