logo
logo
x
바코드검색
BOOKPRICE.co.kr
책, 도서 가격비교 사이트
바코드검색

인기 검색어

실시간 검색어

검색가능 서점

도서목록 제공

[큰글자책] 신뢰성과 투명성을 위한 설명 가능 인공지능

[큰글자책] 신뢰성과 투명성을 위한 설명 가능 인공지능

전진권 (지은이)
커뮤니케이션북스
25,000원

일반도서

검색중
서점 할인가 할인률 배송비 혜택/추가 실질최저가 구매하기
25,000원 -0% 0원
750원
24,250원 >
yes24 로딩중
교보문고 로딩중
11st 로딩중
영풍문고 로딩중
쿠팡 로딩중
쿠팡로켓 로딩중
G마켓 로딩중
notice_icon 검색 결과 내에 다른 책이 포함되어 있을 수 있습니다.

중고도서

검색중
서점 유형 등록개수 최저가 구매하기
로딩중

eBook

검색중
서점 정가 할인가 마일리지 실질최저가 구매하기
로딩중

책 이미지

[큰글자책] 신뢰성과 투명성을 위한 설명 가능 인공지능
eBook 미리보기

책 정보

· 제목 : [큰글자책] 신뢰성과 투명성을 위한 설명 가능 인공지능 
· 분류 : 국내도서 > 컴퓨터/모바일 > 인공지능
· ISBN : 9791143000408
· 쪽수 : 123쪽
· 출판일 : 2025-05-09

책 소개

인공지능의 불투명성이 초래하는 사회적 위험을 지적하고, 이를 극복하기 위한 설명 가능 인공지능(XAI) 기술을 소개한다. 신뢰성과 공정성을 확보하기 위한 기술적, 제도적, 사회적 해법을 제시하며 AI의 투명한 활용을 위한 방향을 제시한다.

목차

블랙박스 인공지능의 위험과 설명 가능 인공지능의 필요성

01 설명 가능 인공지능의 시작
02 딥러닝의 시대와 인공지능의 불투명성
03 불투명성의 원인과 설명 가능 인공지능의 재조명
04 설명 가능 인공지능의 원리
05 설명 가능 인공지능의 구현
06 설명 가능 인공지능 모델의 분류
07 설명 가능 인공지능의 응용
08 이해를 위한 설명 가능 인공지능
09 사회를 위한 설명 가능 인공지능
10 설명 가능 인공지능의 도전과 미래

저자소개

전진권 (지은이)    정보 더보기
명지대학교 방목기초교육대학 부교수다. 서울대학교 과학학과에서 과학철학으로 박사 학위를 받았다. 고등과학원 초학제 연구단 ‘인공지능: 과학, 역사, 철학’에서 인공지능의 사회적 책임에 대해 연구했다(2017∼2018). 저서로 『융합이란 무엇인가: 융합의 과거에서 미래를 성찰한다』(2012), 역서로 『신경 윤리학이란 무엇인가: 뇌과학 인간 윤리의 무게를 재다』(2011) 등이 있다. “형질 집단 선택론의 관점 다원주의에 대한 비판”(2017), “계량서지학을 통한 종교와 과학 연구 동향 분석”(2023), “Three Research Strategies of Neuroscience and the Future of Legal Imaging Evidence”(2018) 등의 논문을 썼다.
펼치기

책속에서

또한 전문가 시스템의 복잡성에도 이유가 있었다. 기호 기반 접근법의 개별적인 규칙 하나하나는 명확하고 직관적으로 이해할 수 있지만 규칙의 수가 많아질수록 시스템 전체를 인간이 이해하는 데 어려움이 커졌다. MYCIN의 경우에도 수백 개의 규칙이 얽혀있었기 때문에 규칙 간의 상호 작용과 결과를 인간의 능력으로 추적하기 쉽지 않았다. 아직 설명 가능 인공지능이라는 명칭이 붙은 것은 아니었지만 이들 문제를 보완하고자 1970년대의 개발자들이 고안한 설명 기능이 설명 가능 인공지능의 뿌리라고 할 수 있다. 그러나 이 시기에 설명 기능은 크게 주목받지는 못했다. 그 이유는 당시 주로 사용된 인공지능의 방법론인 기호 기반 접근법이 명확한 규칙에 기반했기 때문에 상대적으로 이해하기 용이했기 때문이다.

-01_“설명 가능 인공지능의 시작” 중에서


많은 딥러닝 모델들은 확률적 요소를 포함한다. 예를 들어 드롭아웃 같은 기술은 과적합을 방지하기 위해 일부 뉴런을 무작위로 비활성화한다. 확률적 요소는 결과를 예측하기 어렵게 만든다. 또한 많은 딥러닝 신경망은 비선형(non-linear)적이다. 뉴런의 작동에 중요한 활성화 함수를 대부분 비선형 함수를 사용하기 때문이다. 비선형인 경우에는 입력과 출력의 관계가 단순하지 않기 때문에 직관적으로 이해하기 어렵다. 현대 AI의 이 상황을 전문용어로 성능(Performance)과 이해 가능성(Interpretability)의 사이에 상충 관계(Trade-off)가 있다고 표현한다. 예를 들면 랜덤 포레스트(Random Forest), 서포트 백터 머신(Support Vector Machine) 등 전통적인 알고리즘들은 이해 가능성이 높고 복잡성이 낮지만 일부를 제외하면 성능이 떨어지는 편이다. 반면 트랜스포머(Transformer), 거대 언어 모델(LLM: Large Language Model)과 같은 딥러닝 모델은 높은 성능을 보여주지만 복잡하다. 그 복잡성 때문에 이해 가능성이 낮고 내부 작동 과정을 인간이 이해하는 데 한계가 있다.

-03_“불투명성의 원인과 설명 가능 인공지능의 재조명” 중에서


전역적 설명은 전반적인 패턴을 설명할 수 있지만 특정 입력값에 대한 구체적인 설명을 제공하는 데는 한계를 보인다. 전체적인 구조와 작동 과정을 일반화하는 과정에서 세부적인 디테일이 소거되기 쉽기 때문이다. 그 결과 개별 사례에 대한 설명력이 약화될 위험이 있다. 개별 사례에 대한 설명이 필요한 경우 지역적 설명이 요구된다. 예를 들어 특정 환자에 대해 왜 특정 질병을 예측했는지 설명해야 하는 경우나 금융 대출 심사에서 어떤 요인이 대출 승인 또는 거절에 결정적인 영향을 미쳤는지를 분석해야 하는 경우에는 개별 예측값에 대한 구체적인 설명이 필요하다.

-06_“설명 가능 인공지능 모델의 분류” 중에서


추천도서

이 포스팅은 쿠팡 파트너스 활동의 일환으로,
이에 따른 일정액의 수수료를 제공받습니다.
이 포스팅은 제휴마케팅이 포함된 광고로 커미션을 지급 받습니다.
도서 DB 제공 : 알라딘 서점(www.aladin.co.kr)
최근 본 책