책 이미지
책 정보
· 분류 : 국내도서 > 컴퓨터/모바일 > 인공지능
· ISBN : 9791194587835
· 쪽수 : 368쪽
· 출판일 : 2025-11-13
책 소개
복잡하고 추상적으로만 느껴지던 신경망과 인공지능의 개념을 눈앞에 그림처럼 펼쳐 보이는 책이 나왔다. StatQuest 시리즈로 전 세계 데이터 과학자와 학생들에게 사랑받아온 조시 스타머가 이번에는 신경망과 인공지능을 주제로 쉽고 직관적인 해설을 선보인다.
이 책의 가장 큰 매력은 ‘단순화가 아닌 명료화’다. 방정식과 기호를 그대로 쓰되, 그것이 어떻게 작동하는지를 그림과 비유로 풀어내 독자가 직접 눈으로 개념을 이해하게 한다. 텐서, 역전파, SoftMax, 크로스 엔트로피처럼 교과서에서는 어렵게만 보였던 개념이 차근차근 연결되면서 CNN, RNN, LSTM, 트랜스포머까지 자연스럽게 이어진다.
또한 각 장에는 파이토치(PyTorch) 튜토리얼이 포함되어 있어 단순히 이해에 그치지 않고 직접 신경망을 만들어보며 손으로 체득할 수 있다. 학교에서 배웠지만 잊어버린 수학 개념도 부록에서 그림으로 다시 짚어주어 초심자부터 실무자까지 탄탄한 기반을 다지도록 했다.
이 책은 신경망을 더 이상 ‘마법 같은 블랙박스’가 아니라 ‘눈으로 보고 손으로 만질 수 있는 도구’로 바꿔준다. 챗GPT를 비롯한 최신 AI 모델의 핵심 원리를 궁금해하는 독자에게 이 책은 직관과 이해의 즐거움을 동시에 선사할 것이다.
‘데이터계의 밥 로스’라고 불리는 조시 스타머 특유의 유머와 따뜻한 설명은 어려운 개념 앞에서 주눅 들었던 독자에게 용기를 줄 것이다. 이 책과 함께 인공지능이라는 거대한 숲을 두려움 없이 탐험해보자.
주요 내용
- 신경망과 AI의 기본 개념
- 가중치와 편향 최적화하기: 역전파
- ArgMax와 SoftMax로 출력 정리하기
- 크로스 엔트로피로 학습 속도 높이기
- 합성곱 신경망(CNN)으로 이미지 분류하기
- 순환 신경망(RNN)으로 주식 예측하기
- 장기 단기 메모리(LSTM)로 더 나은 주식 예측하기
- 워드 임베딩으로 단어를 숫자로 변환하기
- Seq2seq와 인코더-디코더 모델로 언어 번역하기
- 어텐션, 트랜스포머로 더 나은 언어 번역하기
목차
옮긴이 머리말 iii
베타리더 후기 iv
01 신경망과 AI의 기본 개념!!! 1
02 역전파를 활용한 가중치와 편향 최적화!!! 19
03 입력과 출력이 여러 개인 신경망!!! 69
04 ArgMax와 SoftMax로 출력값 간단하게 만들기!!! 83
05 크로스 엔트로피로 훈련 속도 높이기!!! 97
06 합성곱 신경망으로 이미지 분류하기!!! 119
07 순환 신경망으로 주가 예측하기!!! 133
08 장단기 메모리로 더 나은 주가 예측하기!!! 153
09 워드 임베딩으로 단어를 숫자로 변환하기!!! 171
10 Seq2seq와 인코더-디코더 모델로 언어 번역하기!!! 183
11 어텐션으로 더 나은 언어 번역하기!!! 199
12 트랜스포머로 더욱 강력한 언어 번역하기!!! 213
13 디코더-온리 트랜스포머로 대량의 텍스트 생성하기!!! 255
14 인코더-온리 트랜스포머로 분류와 클러스터링하기!!! 267
부록(학교에서 배웠겠지만 아마도 지금은 잊어버렸을 내용)!!! 277
감사의 글 354 / 참고 문헌 355 / 찾아보기 356
책속에서

파이토치에서 신경망을 만들 때 가장 기본적인 요소는 텐서(Tensor)야. 텐서는 파이썬 리스트와 비슷하지만, 데이터와 가중치, 편향을 저장하는 데 사용돼. 텐서와 파이썬 리스트의 가장 큰 차이점은, 텐서에서는 모든 값이 같은 데이터 타입을 가져야 한다는 거야. 예를 들어, 정수형 텐서를 만들면 그 안의 모든 값이 정수여야 해. 또한, 텐서는 신경망에서 사용하기 최적화되어 있다는 점도 큰 차이점이야.
역전파는 두 단계로 이루어져 있어. 첫 번째 단계는, 각 최적화할 매개변수에 대해 미분(derivative)을 계산해. 이 미분값들의 집합을 ‘경사(gradient)’라고 불러. ‘역전파’라는 이름은 이 경사를 신경망의 출력층에서 입력층 방향으로 계산하기 때문에 붙여진 거야. / 그다음, 두 번째 단계에서는 경사 하강법(gradient descent) 또는 다른 최적화 방법을 사용해 매개변수를 조정해. 이 과정은 반복(iterative)적으로 진행되면서 최적의 값을 찾아가게 돼. 즉, 여러 작은 단계를 거쳐 점진적으로 매개변수를 개선하는 방식이야.



















