logo
logo
x
바코드검색
BOOKPRICE.co.kr
책, 도서 가격비교 사이트
바코드검색

인기 검색어

일간
|
주간
|
월간

실시간 검색어

검색가능 서점

도서목록 제공

텐서플로로 배우는 수치최적화와 딥러닝

텐서플로로 배우는 수치최적화와 딥러닝

(기초 수학과 함께 비전부터 언어까지!)

황윤구, 양한별, 신동욱 (지은이)
남가람북스
33,000원

일반도서

검색중
서점 할인가 할인률 배송비 혜택/추가 실질최저가 구매하기
29,700원 -10% 0원
1,650원
28,050원 >
29,700원 -10% 0원
카드할인 10%
2,970원
26,730원 >
yes24 로딩중
교보문고 로딩중
11st 로딩중
영풍문고 로딩중
쿠팡 로딩중
쿠팡로켓 로딩중
G마켓 로딩중
notice_icon 검색 결과 내에 다른 책이 포함되어 있을 수 있습니다.

중고도서

검색중
서점 유형 등록개수 최저가 구매하기
알라딘 판매자 배송 10개 26,000원 >
로딩중

eBook

검색중
서점 정가 할인가 마일리지 실질최저가 구매하기
로딩중

책 이미지

텐서플로로 배우는 수치최적화와 딥러닝
eBook 미리보기

책 정보

· 제목 : 텐서플로로 배우는 수치최적화와 딥러닝 (기초 수학과 함께 비전부터 언어까지!)
· 분류 : 국내도서 > 컴퓨터/모바일 > 컴퓨터 공학 > 자료구조/알고리즘
· ISBN : 9791189184087
· 쪽수 : 584쪽
· 출판일 : 2022-11-01

책 소개

텐서플로(TensorFlow)를 사용하여 다양한 딥러닝 모델을 학습하는 방법과 최적화 이론을 다룬다. 딥러닝에 관련된 많은 수학 이론이 있지만, 가장 핵심적인 최적화 문제를 중심으로 딥러닝 학습을 설명한다.

목차

이 책을 내며...
들어가며...
추천의 말

PART 1 프로그래밍 준비 작업

Chapter 01 개발환경 설정하기
1.1 아나콘다(Anaconda)
1.1.1 아나콘다 설치하기
1.1.2 터미널 실행 방법
1.1.3 개발환경 생성과 삭제 그리고 패키지 설치
1.1.4 개발환경 활성화와 비활성화
1.1.5 개발환경 내에 패키지 설치하기
1.1.6 개발환경 내보내기와 불러오기

1.2 텐서플로(TensorFlow) 및 관련 패키지 설치하기
1.2.1 yml을 통해 불러오기
1.2.2 yml없이 직접 설정하기

Chapter 02 주피터 노트북과 파이썬 튜토리얼
2.1 주피터 노트북(Jupyter Notebook)
2.1.1 파이썬 코드 실행하기
2.1.2 마크다운
2.1.3 편리한 기능 소개

2.2 파이썬 기초 문법
2.2.1 변수 선언 및 함수 선언, 그리고 익명함수
2.2.2 주요 변수 타입
2.2.3 for loop
2.2.4 if statement
2.2.5 제너레이터(Generator)

2.3 자주 사용되는 파이썬 문법 패턴
2.3.1 데이터 타입마다 다른 for loop 스타일
2.3.2 zip이 들어간 for loop
2.3.3 한 줄 for문
2.3.4 파일 읽기/쓰기

2.4 numpy array
2.4.1 n차원 배열(Array)
2.4.2 배열의 모양(Shape)
2.4.3 전치 연산(Transpose)
2.4.4 Reshape
2.4.5 배열 인덱싱

2.5 시각화 패키지(matplotlib) 튜토리얼
2.5.1 분포도(Scatter Plot) 그리기
2.5.2 Pair Plot(페어플랏) 그리기
2.5.3 단일변수 함수 그래프 그리기
2.5.4 여러 그래프를 한 눈에 보기
2.5.5 그래프 스타일링
2.5.6 다변수 함수 그래프 그리기

Chapter 03 텐서플로 튜토리얼
3.1 텐서플로 설치

3.2 텐서플로 구조 이해하기
3.2.1 그래프(Graph)
3.2.2 텐서(Tensor)
3.2.3 연산(Operation)

3.3 주요 타입 2가지
3.3.1 Constant
3.3.2 Variable

3.4 기초 수학 연산
3.4.1 스칼라 덧셈
3.4.2 텐서플로에서 제공하는 다양한 함수
3.4.3 리덕션(Reduction)
3.4.4 케라스(Keras) 모델

PART 2 딥러닝에 필요한 수치해석 이론

Chapter 04 최적화 이론에 필요한 선형대수와 미분
4.1 선형대수
4.1.1 정의 및 표기법
4.1.2 교육과정에 따른 선형대수의 방향성
4.1.3 벡터/벡터 연산
4.1.4 행렬/벡터 연산
4.1.5 행렬/행렬 연산
4.1.6 선형시스템의 풀이

4.2 딥러닝에서 자주 사용되는 선형대수 표기법
4.2.1 미분과 그래디언트(Gradient)

Chapter 05 딥러닝에 필요한 최적화 이론
5.1 딥러닝에 나타나는 최적화 문제

5.2 최적화 문제의 출발

5.3 최적화 문제 표현의 독해법
5.3.1 선형 회귀 모델
5.3.2 제곱값의 합을 이용한 선형 회귀
5.3.3 절댓값의 합을 사용한 선형 회귀

5.4 다양한 딥러닝 모델과 최적화 문제 미리보기

Chapter 06 고전 수치최적화 알고리즘
6.1 수치최적화 알고리즘이 필요한 이유

6.2 수치최적화 알고리즘의 패턴

6.3 그래디언트 디센트(Gradient Descent)
6.3.1 예제로 배우는 그래디언트 디센트
6.3.2 그래디언트 디센트 방법의 한계점

6.4 그래디언트 디센트를 사용한 선형 회귀 모델 학습
6.4.1 선형 회귀 문제 수식 소개
6.4.2 그래디언트 디센트 방법 적용
6.4.3 한계점

Chapter 07 딥러닝을 위한 수치최적화 알고리즘
7.1 스토캐스틱 방법(Stochastic method)

7.2 스토캐스틱 방법의 코드 구현 패턴

7.3 탐색 방향 기반 알고리즘
7.3.1 스토캐스틱 그래디언트 디센트 방법
7.3.2 모멘텀/네스테로프 방법

7.4 학습률 기반 알고리즘
7.4.1 적응형 학습률 방법의 필요성
7.4.2 Adagrad
7.4.3 RMSProp (Root Mean Square Propagation)
7.4.4 Adam

PART 3 텐서플로를 사용한 딥러닝의 기본 모델 학습

Chapter 08 선형 회귀 모델
8.1 예측 모델과 손실함수

8.2 결정론적 방법과 스토캐스틱 방법
8.2.1 결정론적 방법
8.2.2 스토캐스틱 방법

8.3 비선형 회귀 모델
8.3.1 이차 곡선 데이터
8.3.2 삼차 곡선 데이터
8.3.3 삼각함수 곡선 데이터

8.4 비선형 특성값 추정 방법과 신경망 모델

Chapter 09 선형 분류 모델
9.1 이항 분류 모델
9.1.1 연속 확률 모델
9.1.2 최대우도법과 크로스 엔트로피
9.1.3 미니 배치 방법을 통한 모델 학습
9.1.4 특성값을 이용한 비선형 분류 모델

9.2 다중 분류 모델
9.2.1 소프트맥스(Softmax)
9.2.2 원-핫(One-hot) 인코딩
9.2.3 다중 분류 모델의 크로스 엔트로피
9.2.4 미니 배치 방법을 통한 모델 학습
9.2.5 MNIST

Chapter 10 신경망 회귀 모델
10.1 신경망 모델의 필요성
10.2 신경망 모델 용어 소개
10.3 신경망 모델 구현
10.4 신경망 모델의 다양한 표현
10.5 특성값 자동 추출의 원리
10.6 신경망 모델의 단점

Chapter 11 신경망 분류 모델
11.1 신경망 분류 모델의 필요성

11.2 다양한 데이터 분포와 신경망 분류 모델
11.2.1 신경망 분류 모델 학습
11.2.2 체커보드 예제
11.2.3 불규칙한 데이터 분포 예제

11.3 신경망 분류 모델의 다양한 표현

11.4 MNIST 분류 문제

PART 4 학습용/테스트용 데이터와 언더피팅/오버피팅

Chapter 12 언더피팅/오버피팅 소개
12.1 딥러닝 모델과 함수
12.2 학습용 데이터와 정답함수
12.3 정답함수와 테스트용 데이터
12.4 언더피팅/오버피팅의 2가지 요인

Chapter 13 언더피팅의 진단과 해결책
13.1 학습 반복 횟수 재설정
13.2 학습률 재설정
13.3 모델 복잡도 증가
13.4 언더피팅된 신경망 분류 모델
13.5 언더피팅 요약

Chapter 14 오버피팅의 진단과 해결책
14.1 학습 반복 횟수 재설정

14.2 Regularization 함수 추가
14.2.1 L2 Regularization
14.2.2 L1 Regularization

14.3 드롭아웃(Dropout)
14.4 분류 문제
14.5 교차검증 데이터의 등장

Chapter 15 텐서보드(TensorBoard) 활용
15.1 그래프 그리기
15.2 히스토그램 그리기
15.3 이미지 그리기
15.4 신경망 모델 학습 과정에 텐서보드 적용하기
15.5 Custom 값을 텐서보드에 출력하기

Chapter 16 모델 저장하기와 불러오기
16.1 저장하기
16.2 불러오기
16.3 오버피팅 현상 해결 응용 예제

Chapter 17 딥러닝 가이드라인
17.1 딥러닝 프로젝트 진행 순서
17.1.1 모델과 손실함수 선택
17.1.2 모델 학습 진행
17.1.3 언더피팅 확인
17.1.4 오버피팅 확인
17.1.5 최종 성능 확인

17.2 딥러닝 학습의 근본적 한계
17.2.1 손실함수에는 학습용 데이터뿐이다
17.2.2 데이터 전처리는 매우 중요하다
17.2.3 손실함수와 정확도는 다르다
17.2.4 테스트 데이터의 분포는 완전히 알 수 없다

PART 5 딥러닝 모델

Chapter 18 CNN 모델
18.1 딥러닝(Deep Learning) 이란
18.2 CNN 모델 소개

18.3 콘볼루션(Convolution)
18.3.1 커널(Kernel)/Filter
18.3.2 Strides
18.3.3 Padding

18.4 Max-Pooling
18.5 Dropout

18.6 ReLU 활성 함수
18.6.1 사라지는 그래디언트 문제(Vanishing gradient problem)
18.6.2 문제의 이해
18.6.3 문제의 원인
18.6.4 해결

18.7 자동 특성(Feature) 추출

18.8 MNIST 숫자 분류 문제
18.8.1 데이터 훑어보기
18.8.2 One-Hot 인코딩
18.8.3 CNN모델 구축하기
18.8.4 최적화 문제 설정
18.8.5 하이퍼 파라미터 설정
18.8.6 학습 시작
18.8.7 정확도 확인
18.8.8 전체 코드

Chapter 19 GAN(Generative Adversarial Networks) 모델
19.1 min-max 최적화 문제 소개

19.2 Generator(생성기)
19.2.1 학습용 데이터 준비
19.2.2 Leaky ReLU(누설 ReLU)
19.2.3 Tanh Output

19.3 Discriminator(판별기)

19.4 GAN 네트워크 만들기
19.4.1 Hyperparameters

19.5 손실함수

19.6 Training(학습)
19.6.1 Training(학습)의 세부 조건 설정
19.6.2 Training one epoch
19.6.3 학습 시작
19.6.4 Training loss(학습 손실)
19.6.5 생성기로 만든 샘플 영상
19.6.6 생성기로 새로운 영상 만들기

19.7 유용한 링크 및 전체 코드
19.7.1 유용한 링크
19.7.2 전체 코드

PART 6 응용 문제

Chapter 20 영상
20.1 Transfer Learning(전이 학습)

20.2 꽃 사진 분류
20.2.1 필요한 사전 지식
20.2.2 환경 준비
20.2.3 문제 소개
20.2.4 VGG16 모델
20.2.5 데이터 훑어보기
20.2.6 모델 만들기
20.2.7 최적화 문제와 하이퍼 파라미터 설정
20.2.8 학습
20.2.9 정확도

20.3 Fine-tuning
20.4 Transfer Learning 전체 코드

Chapter 21 자연어 데이터 전처리와 머신러닝 모델
21.1 IMDB 데이터
21.2 자연어 데이터 전처리
21.3 머신러닝에서 사용하던 전처리 기법

Chapter 22 IMDB 영화 리뷰 예제: RNN 모델 학습
22.1 Embedding
22.2 LSTM모델 학습
22.3 Bidirectional LSTM모델 학습
22.4 Multi-Layer LSTM 모델 학습

Chapter 23 IMDB 영화 리뷰 예제: RNN 사전학습 모델 활용
23.1 임베딩 그대로 사용하기
23.2 임베딩 추가 학습하기

Chapter 24 IMDB 영화 리뷰 예제: BERT 사전학습 모델 활용
24.1 BERT 사전학습 모델
24.2 BERT 사전학습 모델 로드하기
24.3 BERT 사전학습을 IMDB 감정 분석으로 추가 학습

Chapter 25 혼합 타입 데이터를 입력으로 받는 딥러닝 모델
25.1 Concatenate를 활용한 다중 입력 모델 생성
25.2 이미지 데이터 추가한 모델 생성
25.3 이미지와 자연어 데이터 추가한 모델 생성

PART 7 부록

Chapter 26 GPU 사용하기
26.1 CPU vs GPU - Latency and throughput processing
26.2 TPU, Tensor core

26.3 GPU 환경 구축
26.3.1 Linux(리눅스)
26.3.2 Windows(윈도)

26.4 텐서플로 예제

Chapter 27 텐서플로를 이용한 병렬 계산
27.1 암달의 법칙

27.2 데이터 병렬화와 모델 병렬화
27.2.1 데이터 병렬화(data parallelism)
27.2.2 모델 병렬화(model parallelism)

27.3 데이터 병렬화 예제

27.4 전체 코드
27.4.1 18장 데이터 병렬화
27.4.2 20장 데이터 병렬화

찾아보기

저자소개

황윤구 (지은이)    정보 더보기
연세대학교 계산과학공학과에서 강화학습을 통한 수리생물학으로 응용수학 박사학위를 마쳤습니다. 패스트 캠퍼스에서 ‘딥러닝’ 강의를 했으며, Udacity에서는 Deep Reinforcement Learning 나노디그리의 멘토로 활동하고 있습니다. 삼성메디슨 연구소에서 영상/신호처리 알고리즘 개발을 했었고, 현재는 LG CNS D&A 연구소에서 AI Professional로 강화학습 파트에서 근무하고 있습니다.
펼치기
양한별 (지은이)    정보 더보기
한국과학기술원에서 전산학과를 전공하고, 연세대학교 계산과학공학과에서 전자공학 석사를 졸업했습니다. 삼성메디슨, 엔비디아에서 근무했고, 현재는 지멘스 헬시니어스에서 근무하고 있습니다.
펼치기
신동욱 (지은이)    정보 더보기
연세대학교 수학과를 졸업하고, 동 대학원 계산과학공학과에서 박사학위를 취득했습니다. 주요 연구 분야는 수치해석, 산업수학, 머신러닝/딥러닝 등입니다. 국가수리과학연구소 선임연구원, 명지대학교 수학과 조교수로 재직했고, 현재는 아주대학교 수학과 조교수로 재직 중입니다.
펼치기
이 포스팅은 쿠팡 파트너스 활동의 일환으로,
이에 따른 일정액의 수수료를 제공받습니다.
이 포스팅은 제휴마케팅이 포함된 광고로 커미션을 지급 받습니다.
도서 DB 제공 : 알라딘 서점(www.aladin.co.kr)
최근 본 책