책 이미지

책 정보
· 분류 : 국내도서 > 컴퓨터/모바일 > 컴퓨터 공학 > 자료구조/알고리즘
· ISBN : 9791158083335
· 쪽수 : 628쪽
· 출판일 : 2021-11-20
책 소개
목차
<1부 딥러닝의 기초와 설계>
1장 서론
2장 딥러닝 데이터와 세 가지 기본신경망
2.1 데이터의 사전정리과정
2.2 딥러닝에 사용되는 데이터의 형태
2.3 은닉층 설계를 위한 세 가지 핵심 신경망
3장 최적화와 딥러닝 모형진단
3.1 출력층과 손실함수
3.2 역전파
3.3 최적화 알고리즘
3.4 딥러닝 모형의 진단과 일반화
4장 TensorFlow 2.x와 Keras
4.1 TensorFlow 2.x의 기초 문법과 tf.keras의 설치
4.2 딥러닝 구축을 위한 3대 API
4.3 최적화를 위한 점검
5장 딥러닝 모형의 성능향상과 맞춤형 딥러닝 설계
5.1 딥러닝 모형의 성능향상
5.2 맞춤형 딥러닝 설계
<2부 딥러닝의 기본 응용>
6장 CNN의 응용과 이전학습
6.1 사람의 성별을 구분하는 CNN
6.2 이전학습 I
6.3 Image Generator를 이용한 CNN과 자료증대
6.4 이전학습 II
7장 텍스트 자료에 대한 딥러닝
7.1 Word2Vec과 Glove
7.2 텍스트 자료에 특화된 Word Embedding
7.3 Word Embedding 사례분석
8장 RNN의 적용과 응용
8.1 RNN 모형의 비교
8.2 다른 형태의 RNN 모형
8.3 딥러닝을 이용한 시계열 자료분석
9장 다중 입출력, 병렬형, 비순환 딥러닝 아키텍처
9.1 다중입력과 다중출력 딥러닝
9.2 비순환형 딥러닝 아키텍처
<3부 Computer Vision>
10장 자율자동차의 이미지분석
10.1 교통표식의 식별
10.2 객체분할
10.3 객체의 의미분할
11장 이미지 객체인식과 위치화
11.1 R-CNN
11.2 YOLO
<4부 자연어처리>
12장 머신번역
12.1 자료의 사전정리
12.2 sequence-to-sequence 학습
12.3 머신번역을 위한 Encoder-Decoder 아키텍처
12.4 Attention을 이용한 머신번역
13장 Transformer
13.1 Transformer의 입력층
13.2 Transformer의 은닉층
13.3 Transformer의 적용
13.4 한국어 챗봇
14장 BERT
14.1 BERT의 구조
14.2 서브워드 토큰화
15장 Hugging Face를 이용한 BERT
15.1 BERT의 적용
15.2 NLP 데이터셋 API와 BERT의 적용
16장 BERT 변형
16.1 ALBERT
16.2 RoBERTa
16.3 ELECTRA
16.4 DistilBERT
16.5 M-BERT, XLM, XLM-R
<5부 Autoencoder와 GAN>
17장 Autoencoder와 Variational Autoencoder
17.1 Autoencoder 모형
17.2 오염제거 Autoencoder
17.3 Variational Autoencoder
18장 Generative Adversarial Networks
18.1 DCGAN
18.2 GAN 학습을 위한 손실함수
18.3 WGAN의 구현
18.4 LSGAN의 구현
19장 Cross-Domain GAN
19.1 CycleGAN
19.2 CIFAR10 데이터를 이용한 CycleGAN
19.3 MNIST 데이터와 SVHN 데이터를 이용한 CycleGAN
19.4 모네그림 데이터와 사진데이터를 이용한 CycleGAN
참고문헌
찾아보기