책 이미지
![[큰글자책] 인공지능과 편향](/img_thumb2/9791143000255.jpg)
책 정보
· 분류 : 국내도서 > 컴퓨터/모바일 > 인공지능
· ISBN : 9791143000255
· 쪽수 : 157쪽
· 출판일 : 2025-06-10
책 소개
목차
인공지능에서 편향의 위치
01 인공지능 편향 정책
02 인공지능 편향의 원인
03 보호 속성과 인공지능 공정성
04 인공지능 공정성의 유형
05 공정성 기준들 간 상충
06 인공지능 구성 단계에서의 편향
07 편향 제거가 아닌 완화
08 인공지능 편향 완화 기술
09 정확도-공정성 트레이드오프
10 편향 완화 플랫폼과 인간 판단
저자소개
책속에서
인공지능 윤리 및 신뢰성의 다양한 점검 항목 각각에 대해 ‘표준(standard)’이 여러 기관에서 개발되고 있다. ‘표준’은 개발자와 조직이 보다 책임감 있고 투명한 인공지능 시스템을 개발하고 배포할 때 가이드라인과 우수 사례 홍보를 포함하는 모범 사례로 역할을 한다. 대표적으로, IEEE(국제전기전자공학자협회)에서는 다양한 신뢰성 항목들에 대한 표준들을 개발하고 있으며, 인공지능 편향성에 대해서는 ‘IEEE P7003: 알고리즘 편향 고려 사항 표준(IEEE 2025)’이라는 이름으로 보고서 작업을 진행 중이다. 이 표준은 IEEE 자율 및 지능형 시스템 윤리 글로벌 이니셔티브의 일부이며 알고리즘 의사 결정 시스템에서 의도치 않은, 정당화되지 않은, 부적절한 편향을 식별하고 완화하는 데 개인이나 조직에 개발 프레임워크를 제공하려는 것이다.
-01_“인공지능 편향 정책” 중에서
통계적 공정성이란 모든 집단이 동일한 비율의 결과를 가지는 상태로, 결과의 수학적 동등성에 초점을 맞추는 종류의 공정성을 의미한다. 예컨대 대출 승인에서 모든 인종 집단이 동일한 비율로 승인을 받아야 한다는 기준을 세우는 경우다. 이러한 기준은 개인의 자격이나 능력을 고려하지 않고 단순히 집단 간 비율만을 맞추기 때문에 개인의 특수 상황을 고려하기 어렵다. 이러한 이유로 통계적 공정성은 다른 의미의 불공정성, 즉 ‘형평성 (equity)’의 관점에서는 불공정하다.
-03_“보호 속성과 인공지능 공정성” 중에서
그러나 주어진 시간과 재원은 한정되어 있기에 다양성과 데이터의 양을 무조건 늘리는 것은 현실적이지는 않다. 따라서 샘플의 ‘대표성’ 또한 중요하다. 의도된 인종 차별은 아니지만 인공지능이 학습하는 데이터는 그 양에서 특정 집단, 특정 속성에 치중될 가능성이 높다. 이 편향은 인공지능이어서 가지게 되는 편향이라기보다는 인간 사회가 이미 가지고 있는 데이터의 불균형이 반영된 결과다. 데이터를 수집하고 기술 구축 및 구현을 담당하는 팀에 다양성이 부족할수록 부정적인 결과의 가능성이 커진다. 예를 들어 특정 집단과 관련한 데이터가 의도치 않게 배제되면, 데이터가 모델 학습에 사용되는 방식 때문에 궁극적으로 데이터 품질에 영향을 주게 된다.
-06_“인공지능 구성 단계에서의 편향” 중에서