logo
logo
x
바코드검색
BOOKPRICE.co.kr
책, 도서 가격비교 사이트
바코드검색

인기 검색어

실시간 검색어

검색가능 서점

도서목록 제공

Easy! 딥러닝

Easy! 딥러닝

(혁펜하임의)

혁펜하임 (지은이)
북엔드
35,000원

일반도서

검색중
서점 할인가 할인률 배송비 혜택/추가 실질최저가 구매하기
31,500원 -10% 0원
1,750원
29,750원 >
31,500원 -10% 0원
0원
31,500원 >
yes24 로딩중
교보문고 로딩중
11st 로딩중
영풍문고 로딩중
쿠팡 로딩중
쿠팡로켓 로딩중
G마켓 로딩중
notice_icon 검색 결과 내에 다른 책이 포함되어 있을 수 있습니다.

중고도서

검색중
서점 유형 등록개수 최저가 구매하기
알라딘 판매자 배송 17개 25,000원 >
로딩중

eBook

검색중
서점 정가 할인가 마일리지 실질최저가 구매하기
로딩중

책 이미지

Easy! 딥러닝
eBook 미리보기

책 정보

· 제목 : Easy! 딥러닝 (혁펜하임의)
· 분류 : 국내도서 > 컴퓨터/모바일 > 인공지능
· ISBN : 9791197601347
· 쪽수 : 352쪽
· 출판일 : 2024-11-26

책 소개

딥러닝을 처음 접하는 독자들을 위한 필수 가이드로, 인공지능의 기초 개념부터 CNN, RNN 등 딥러닝의 주요 주제를 폭넓게 다루고 있다. KAIST 박사이자 유튜버로 활동 중인 혁펜하임이 집필한 이 책은 직관적인 비유를 통해 딥러닝의 원리를 체계적으로 이해할 수 있도록 설계되었다.

목차

지은이의 말
이 책을 보는 방법

Chapter 1 – 왜 현재 AI가 가장 핫할까?
1.1 AI(Artificial Intelligence) vs ML(Machine Learning) vs DL(Deep Learning)
1.2 규칙 기반(Rule-Based) vs 데이터 기반(Data-Based)
1.3 AI는 어떻게 이미지를 분류할까?
1.4 AI는 어떻게 번역을 할까?
1.5 지도 학습(Supervised Learning)
1.6 자기 지도 학습(Self-Supervised Learning)
1.7 비지도 학습(Unsupervised Learning)
1.8 강화 학습(Reinforcement Learning)

Chapter 2 – 인공 신경망과 선형 회귀, 그리고 최적화 기법들
2.1 인공 신경: Weight와 Bias의 직관적 이해
2.2 인공 신경망과 MLP(Multi-Layer Perceptron)
2.3 인공 신경망은 함수다!
2.4 선형 회귀, 개념부터 알고리즘까지 step by step
2.5 경사 하강법(Gradient Descent)
2.5.1 경사 하강법의 두 가지 문제
2.6 웨이트 초기화(Weight Initialization)
2.7 확률적 경사 하강법(Stochastic Gradient Descent)
2.8 Mini-Batch Gradient Descent
2.8.1 Batch Size와 Learning Rate의 조절
2.9 Momentum
2.10 RMSProp(Root Mean Squared Propagation)
2.11 Adam(Adaptive Moment Estimation)
2.12 검증 데이터(Validation Data)
2.12.1 K-fold 교차 검증(K-fold Cross Validation)


Chapter 3 – 딥러닝, 그것이 알고 싶다.
3.1 MLP, 행렬과 벡터로 표현하기
3.2 비선형(Non-Linear) 액티베이션의 중요성
3.3 역전파(Backpropagation)
3.3.1 학습 과정에서 Forward Propagation이 필요한 이유

Chapter 4 – 이진 분류와 다중 분류
4.1 Unit Step Function을 이용한 이진 분류
4.1.1 Unit Step Function의 두 가지 문제와 Sigmoid
4.2 Sigmoid를 이용한 이진 분류
4.2.1 BCE(Binary Cross-Entropy) Loss
4.2.2 로지스틱 회귀(Logistic Regression)
4.3 MSE Loss vs BCE Loss
4.4 딥러닝과 MLE(Maximum Likelihood Estimation)
4.4.1 Loss 함수와 NLL(Negative Log-Likelihood)
4.5 다중 분류
4.5.1 Softmax
4.5.2 Cross-Entropy Loss
4.5.3 Softmax 회귀(Softmax Regression)

Chapter 5 – 인공 신경망, 그 한계는 어디까지인가?
5.1 Universal Approximation Theorem
5.2 Universal Approximation Theorem 증명
5.3 Universal Approximation Theorem 오해와 진실

Chapter 6 – 깊은 인공 신경망의 고질적 문제와 해결 방안
6.1 기울기 소실(Vanishing Gradient)과 과소적합(Underfitting)
6.1.1 ReLU(Rectified Linear Unit)
6.1.2 Sigmoid vs ReLU 실험 결과 분석
6.1.3 ReLU 그 후..
6.1.4 배치 정규화(Batch Normalization)
6.1.5 배치 정규화(Batch Normalization) 실험 결과 분석
6.1.6 레이어 정규화(Layer Normalization)
6.2 Loss landscape 문제와 ResNet의 Skip-Connection
6.3 과적합(Overfitting)
6.3.1 데이터 증강(Data Augmentation)
6.3.2 Dropout
6.3.3 오토인코더(Autoencoder)에 Dropout 적용, 실험 결과 분석
6.3.4 Regularization
6.3.5 Regularization과 MAP(Maximum A Posteriori)
6.3.6 L2-Regularization vs L1-Regularization 실험 결과 분석

Chapter 7 – 왜 CNN이 이미지 데이터에 많이 쓰일까?
7.1 CNN은 어떻게 인간의 사고방식을 흉내 냈을까?
7.2 이미지 인식에서 FC 레이어가 가지는 문제
7.3 컨볼루션(Convolution)의 동작 방식
7.3.1 컨볼루션은 어떻게 위치별 특징을 추출할까?
7.3.2 특징 맵(Feature Map)
7.3.3 어떤 특징을 추출할지 AI가 알아낸다!
7.4 다채널 입력에 대한 컨볼루션
7.5 1x1 컨볼루션의 의미
7.6 Padding & Stride
7.7 Pooling 레이어
7.8 CNN의 전체 구조: 특징 추출부터 분류까지
7.9 CNN의 특징 맵 실험 결과 분석
7.10 VGGNet 완벽 해부
7.10.1 Receptive Field 개념과 여러 번 컨볼루션 레이어를 통과하는 이유
7.11 CNN에 대한 추가적인 고찰

Chapter 8 – 왜 RNN보다 트랜스포머가 더 좋다는 걸까?
8.1 연속적인 데이터와 토크나이징(Tokenizing)
8.2 RNN의 동작 방식
8.3 다음 토큰 예측(Next Token Prediction)
8.4 RNN의 구조적 한계
8.5 RNN의 여러 가지 유형
8.6 Seq2seq 개념 및 문제점
8.7 Attention: 시점마다 다른 Context Vector의 사용
8.7.1 Attention: Context Vector 만들기
8.7.2 Attention의 학습 원리와 해석
8.7.3 RNN+Attention의 두 가지 문제점
8.8 트랜스포머의 Self-Attention
8.9 맺으며..

부록: 딥러닝을 위한 필수 기초 수학
1-1강. 함수
1-2강. 로그함수
2-1강. 벡터와 행렬
2-2강. 전치와 내적
3-1강. 극한과 입실론-델타 논법
3-2강. 미분과 도함수
3-3강. 연쇄 법칙
3-4강. 편미분과 그래디언트
4-1강. 랜덤 변수와 확률 분포
4-2강. 평균과 분산
4-3강. 균등 분포와 정규 분포
5-1강. MLE(Maximum Likelihood Estimation)
5-2강. MAP(Maximum A Posteriori)
6강. 정보 이론 기초

저자소개

혁펜하임 (지은이)    정보 더보기
누구나 쉽게 이해할 수 있는 최고의 설명법을 연구하는 딥러닝 전문 강사. 서강대학교에서 전자공학과 학사, KAIST에서 전기 및 전자공학부 석사 및 박사 학위를 받았다. 이후 삼성전자에서 책임연구원으로 근무하며 다양한 프로젝트를 수행했다. 현재 삼성서울병원 및 성균관대학교 의과대학에서 초빙강사로 강의를 진행하고 있으며, 딥러닝 강의 플랫폼 ‘혁펜하임 아카데미’의 대표로 활동 중이다. 서울대, 고려대, 한양대, 성균관대 등 여러 대학과 삼성전자, 삼성디스플레이, LG화학, GS칼텍스를 포함한 15개 이상의 주요 기업 및 기관에서 딥러닝 강의를 진행했다. 또한, 유튜브 채널을 운영하며 딥러닝 이론과 더불어 파이썬 코딩, 선형대수학, 컨벡스 최적화, 강화학습, 신호 및 시스템 등 다양한 주제의 강의를 무료로 제공하고 있다. 홈페이지 hyukppen.modoo.at 인스타그램 instagram.com/hyukppen 유튜브 @hyukppen
펼치기

책속에서

이 책의 가장 큰 특징은 복잡한 개념들을 직관적이고 비유적인 설명으로 최대한 쉽게 풀어냈다는 점입니다. 예를 들어, 기울기 소실 문제를 이해하기 위해 신경망을 '식당'에 비유했고, 배치 정규화를 '모래알의 재배치'로 설명했으며, Dropout을 '직원들의 휴가'에 빗대었습니다. 이러한 접근 방식은 어려운 개념들을 단순히 암기하는 것이 아니라, 그 본질과 의미를 더 깊이 이해할 수 있게 도와줍니다.


현재 AI만큼 뜨거운 분야가 있을까요? 인류 역사를 통틀어 이렇게까지 빠르게 발전한 분야는 찾아보기 힘듭니다. ChatGPT와 같은 대규모 언어 모델은 방대한 지식을 바탕으로 인간의 언어 능력을 뛰어넘는 모습을 보여주며 우리를 놀라게 했습니다. 또, 예술의 영역만큼은 AI가 절대 침범할 수 없을 것이라는 사람들의 생각을 비웃기라도 하듯 AI가 만든 작품이 미술 대회와 작곡 공모전을 휩쓸고 있습니다.


아이디어는 단순합니다. 노드 수가 줄어드는 레이어에서는 액티베이션을 하지 않음으로써 비선형성은 다소 포기하되 정보 손실을 막고, 반대로 노드 수가 늘어나는 레이어에서는 비선형 액티베이션을 사용함으로써 정보 손실을 최소화하면서 충분한 비선형성을 확보하자는 것입니다.


추천도서

이 포스팅은 쿠팡 파트너스 활동의 일환으로,
이에 따른 일정액의 수수료를 제공받습니다.
이 포스팅은 제휴마케팅이 포함된 광고로 커미션을 지급 받습니다.
도서 DB 제공 : 알라딘 서점(www.aladin.co.kr)
최근 본 책