logo
logo
x
바코드검색
BOOKPRICE.co.kr
책, 도서 가격비교 사이트
바코드검색

인기 검색어

실시간 검색어

검색가능 서점

도서목록 제공

AI와 고용 차별

AI와 고용 차별

오선정 (지은이)
커뮤니케이션북스
12,000원

일반도서

검색중
서점 할인가 할인률 배송비 혜택/추가 실질최저가 구매하기
12,000원 -0% 2,500원
360원
14,140원 >
yes24 로딩중
교보문고 로딩중
11st 로딩중
영풍문고 로딩중
쿠팡 로딩중
쿠팡로켓 로딩중
G마켓 로딩중
notice_icon 검색 결과 내에 다른 책이 포함되어 있을 수 있습니다.

중고도서

검색중
서점 유형 등록개수 최저가 구매하기
로딩중

eBook

검색중
서점 정가 할인가 마일리지 실질최저가 구매하기
aladin 9,600원 -10% 480원 8,160원 >

책 이미지

AI와 고용 차별
eBook 미리보기

책 정보

· 제목 : AI와 고용 차별 
· 분류 : 국내도서 > 컴퓨터/모바일 > 인공지능
· ISBN : 9791143015112
· 쪽수 : 160쪽
· 출판일 : 2025-12-05

책 소개

인공지능을 활용한 채용과 공공 고용서비스에서 통계적 차별과 알고리즘 편향이 어떻게 발생하는지 인권·노동권 관점에서 분석한다. 유럽연합과 국제 기구의 규범, 해외 고용서비스 사례를 검토하며, 보호가 필요한 집단을 우선하는 설계 원칙과 인간 개입 강화 방안을 제안한다.
인공지능이 만든 채용의 균열
고용 현장에서 인공지능 기반 자동 심사와 프로파일링이 확산되면서 시간과 비용은 줄어들었지만, 성별·연령·장애 여부와 같은 특성에 따라 취약한 사람을 걸러내는 일이 현실이 되고 있다. 아마존이 인공지능 채용 도구의 여성 차별 문제를 발견해 폐기한 사례는 드물게 드러난 경우일 뿐, 차별이 드러나지 않은 채 계속 누적되는 경우가 훨씬 많다. 유럽연합 개인정보 보호 규정과 인공지능 관련 법, 유럽평의회 인공지능 협약, 경제협력개발기구 논의 등은 자동화된 의사 결정과 프로파일링이 인권과 노동권을 침해할 수 있는 위험에 주목하며, 인간의 개입과 감독을 제도적으로 요구한다.
이 책은 인공지능이 고용 과정에서 통계적 차별과 알고리즘 편향, 데이터 대표성 부족을 통해 어떤 구조적 불평등을 만들어 내는지 분석하고, 공공 고용서비스에 인공지능 프로파일링을 도입할 때 드러나는 위험과 가능성을 함께 짚는다. 저학력 구직자가 단순 서비스직에 고착되는 경로, 효율성 중심 행정이 형평성과 민주성을 잠식하는 과정을 비판적으로 검토하며, 고위험 집단에 대해서는 자동 결정을 제한하고 사람 상담사의 개입을 강화하는 등 정책 설계 원칙을 제안한다. 해외 사례와 국내 법제 검토, 연구자의 현장 경험을 바탕으로 인공지능을 고용 차별의 도구가 아니라 고용 불평등 완화의 수단으로 전환하기 위한 구체적 논의를 제시한다.

목차

AI와 고용 차별, 그리고 정책의 역할

01 고용 분야에서 AI 활용
02 고용 분야에서 AI 활용의 위험성
03 AI의 차별
04 디지털 고용서비스의 AI 활용
05 AI 기반 고용서비스의 통계적 차별
06 AI의 통계적 차별에 대한 법적 대응
07 AI의 통계적 차별에 대한 정책적 대응
08 AI 기반 고용서비스와 프로파일링
09 고용서비스 분야 통계적 차별의 대응 방법
10 AI 기반 고용서비스 정책의 방향

저자소개

오선정 (지은이)    정보 더보기
전남대학교 행정학과 조교수다. 전남대학교에서 행정학사, 미국 시라큐스 대학교에서 행정학 석사, 경제학 석사 및 사회과학(정책학) 박사학위를 받았다. 졸업 후 한국노동연구원 고용정책연구본부에서 연구위원으로 근무했다(2015.7∼2023.2). 주요 연구 분야는 정책 분석 및 평가이며, 현재 다수의 부처 및 공공기관에서 자문위원으로 활동하고 있다. “Do High School Peers Have Persistent Effects on College Attainment and Other Life Outcomes?”(2014), “What Have We Learned from Paired Testing in Housing Markets?”(2015), “School Desegregation and Teenage Fertility”(2015), “인공지능 기반 고용서비스의 통계적 차별 가능성 연구: 잡케어 시스템을 중심으로”(2025), “한국 고용서비스의 유형화 특성 분석 및 개선 방안 연구”(2025) 등의 논문을 KCI, SSCI 등 등재학술지에 게재했다.
펼치기

책속에서

고용 분야에서도 AI를 활용해서 의사 결정을 하는 궁극적인 목적은 인간의 결정을 AI가 대신하도록 하여 효율성을 증대하고 자원을 절약하기 위해서다. 또한 지금은 AI에 의한 고용 분야의 차별 문제가 대두되고 있지만, AI의 활용 초기에는 AI에 의한 결정이 인간의 결정에 비해 편견을 배제할 수 있어 더욱 객관적이라는 믿음도 있었다. 최근에는 AI에 의한 분석 결과를 기업의 인사 전문가나 리쿠르터(recruiter)가 참고하기 위해서 활용하는 것에서 더 나아가 AI 도구가 인간의 결정을 완전히 대체하는 사례가 늘어나고 있다.

-01_“고용 분야에서 AI 활용” 중에서


AI가 예측을 위해 알고리즘을 활용하는 것 자체 때문에 통계적 차별이 발생하는 것이지 분석 자료나 알고리즘에 문제가 있어서 차별이 발생하는 것은 아니다. 예를 들어, 노동시장에서 차별이 존재하지 않는다고 하더라도, 즉 알고리즘의 분석 자료에 문제가 없다고 하더라도, AI 시스템의 분석에서 이민자나 고령자와 같은 노동시장 취약 계층은 평균적인 구직자보다 고위험 구직자로 분류될 가능성이 커서 통계적 차별의 대상이 된다. 또한 알고리즘에 편향성이 반영되는 등의 문제가 없더라도 차별이 발생한다. 이러한 이유로 통계적 차별과 알고리즘의 편의(algorithmic bias)는 깊은 관련성이 있다.

-03_“AI의 차별” 중에서


EU 회원국에 국내 입법 절차가 필요 없이 직접 효력을 가지는 EU의 규정(Regulation) 제정 이외에, 회원국 자체적으로도 AI의 활용을 규제하고자 하는 움직임이 나타난다. 예를 들어, 2021년 독일 AI-사회적 책임과 경제적, 사회적, 생태적 잠재력에 관한 조사위원회의 최종 보고서는 AI가 가져올 다양한 위험성을 해결하기 위해 투명성, 추적성 및 설명 가능성의 중요성을 강조했다. 특히 채용에서 AI 활용에 따른 차별 문제가 나타나 미국과 유럽 등에서는 AI를 활용한 채용을 규제하려는 움직임이 나타나고 있다.

-06_“AI의 통계적 차별에 대한 법적 대응” 중에서


추천도서

이 포스팅은 쿠팡 파트너스 활동의 일환으로,
이에 따른 일정액의 수수료를 제공받습니다.
이 포스팅은 제휴마케팅이 포함된 광고로 커미션을 지급 받습니다.
도서 DB 제공 : 알라딘 서점(www.aladin.co.kr)
최근 본 책
9791143015136