인간중심설계

AI 기술은 인간의 삶을 보조하고 지원하기 위한 도구로 활용되어야 하며,
중요한 의사결정의 최종 책임과 권한은 인간에게 있어야 합니다.

따라서 AI 시스템은 자동화의 편의성뿐만 아니라
인간의 판단과 통제를 존중하는 방향으로 설계되고 운영되는 것이 중요합니다.

대한인공지능윤리협회는 AI가 인간의 권리와 가치를 침해하지 않도록
인간 중심의 설계 원칙을 제시하고 있습니다.

또한 AI 기술이 사회적 가치와 공공의 이익을 고려하여 발전할 수 있도록
일자리 변화와 사회적 영향 등을 함께 검토하며,
모든 사람이 안전하고 책임 있게 AI 기술을 활용할 수 있는 환경 조성을 목표로 하고 있습니다.

인간의 자율성 존중

  • AI 추천을 거부할 권리

  • 사람의 최종 승인 필요

  • 자동화 범위 제한

  • AI 의사결정에 대한 인간의 개입 가능성 보장

  • 사용자에게 AI 사용 여부 선택권 제공

  • 중요한 의사결정 과정에서 인간 검토 절차 마련

인간 복지 우선

  • 사회적 가치 고려

  • 일자리 영향 평가

  • 취약 계층 보호

  • 기술 도입이 인간의 삶에 미치는 영향 검토

  • 공공의 이익을 고려한 AI 활용 기준 마련

  • 인간의 안전과 권리를 우선 고려한 시스템 설계

  • 사회적 부작용 발생 가능성에 대한 사전 검토

매거진

AI 기술이 사회에 미치는 영향과 책임

AI 기술이 사회에 미치는 영향과 책임

AI가 만드는 사회 변화, 우리는 무엇을 준비해야 할까

AI가 만드는 사회 변화, 우리는 무엇을 준비해야 할까

AI 시대의 개인정보 보호, 무엇이 달라질까

AI 시대의 개인정보 보호, 무엇이 달라질까

온라인 상담 카카오톡 상담 카카오톡 상담 카카오톡 상담