책 이미지
책 정보
· 분류 : 국내도서 > 대학교재/전문서적 > 공학계열 > 컴퓨터공학 > 전산수학
· ISBN : 9791158087739
· 쪽수 : 640쪽
· 출판일 : 2025-11-05
목차
1부 딥러닝의 작동원리
제1장 머신러닝 학습 절차의 핵심 및 내용 요약
1.1 ML(machine learning)
1.2 DL(deep learning)
1.3 RL(Reinforcement learning)
제2장 딥러닝 데이터와 세 가지 기본신경망
2.1 데이터의 사전정리
2.2 딥러닝에 사용되는 데이터의 형태
2.3 은닉층 설계를 위한 세 가지 핵심 신경망
제3장 손실함수와 최적화
3.1 출력층과 손실함수
3.2 역전파
3.3 최적화 알고리즘
제4장 Pytorch의 이해
4.1 Pytorch의 문법과 적용
4.2 딥러닝 모델과 데이터 셋의 구조와 모델의 저장
4.3 MLP, RNN, 그리고 CNN의 적용
제5장 오차분석, 초모수 조절, 그리고 딥러닝 모형의 성능 향상
5.1 오차분석
5.2 자료 분할
5.3 초모수 조절
5.4 딥러닝 모형의 성능 향상
제6장 CNN의 응용과 이전학습
6.1 사람의 성별을 구별하기 위한 CNN의 적용
6.2 이전학습
6.3 이전학습과 자료증대
제7장 텍스트 자료의 사전정리와 RNN의 적용
7.1 텍스트 자료의 사전정리과정
7.2 Word2Vec, Glove, 그리고 Word Embedding
7.3 RNN 모형의 적용
7.4 다른 RNN 모형과 CNN 모형과의 비교
7.5 텍스트 데이터의 사전정리의 요약
제8장 Mamba, GNN, KAN 모형을 이용한 시계열 분석
8.1 Mamba
8.2 GNN(Graph Neural Network)
8.3 KAN(Komogorov Arnold Network)
8.4 시계열 자료의 적용
제9장 CNN 아키텍처의 진화
9.1 LeNet-5
9.2 AlexNet
9.3 VGGNet
9.4 ResNet
9.5 Inception
9.6 Stem-Learner-Task 아키텍처
9.7 딥러닝의 진화
2부 Computer Vision
제10장 객체탐색 I (R-CNN, Fast R-CNN, Faster R-CNN)
10.1 Upsampling
10.2 교통표식의 식별
10.3 R-CNN에 의한 객체탐색
10.4 Fast R-CNN
10.5 Faster R-CNN
제11장 객체탐색 II (YOLO~YOLO12)
11.1 YOLO의 참사각박스와 목적변수의 결정
11.2 YOLO-v3
11.3 YOLO version의 진화
제12장 채널 시각화, 딥드림, 그리고 스타일 이전
12.1 채널 시각화
12.2 딥드림
12.3 스타일 이전
제13장 Variational Autoencoder와 Diffusion 모형
13.1 AutoEncoder
13.2 Variational Autoencoder
13.3 조건부 VAE
13.4 Diffusion 모형
제14장 Generative Adversarial Networks(GAN)
14.1 DCGAN
14.2 Cycle GAN
3부 LLM
제15장 Seq2Seq 모형
15.1 자료의 사전정리
15.2 sequence-to-sequence 학습
15.3 Attention을 이용한 Seq2Seq
제16장 Transformer
16.1 Transformer의 입력층
16.2 Transformer의 은닉층
16.3 Transformer의 적용
16.4 한국어 챗봇
제17장 자연어 모형
17.1 사전학습, fine tuning, few-shot, 그리고 zero-shot 학습
17.2 서브워드 토큰화
17.3 Auto-encoding 언어모형
17.4 GPT(generative pretrained transformer)와 text 생성을 위한 Sampling
제18장 ViT, OCR, CLIP, Stable Diffusion, SAM, In-painting
18.1 ViT(Vision Transformer)
18.2 TrOCR
18.3 CLIP(contrastive language-image pre-training)
18.4 Stable Diffusion 모형
18.5 SAM(Segmentation Anything Model)
18.6 In-painting
제19장 LLM 모형의 진화
19.1 T5와 LlaMA
19.2 Transformer attention의 진화
19.3 RWKV
19.4 LLM 모형의 적절성 조절
19.5 RAG(Retrieval Augmented Generation)
19.6 LLM 모형의 비교와 Open source LLM
19.7 AI의 진화
제20장 Hugging Face를 이용한 언어모형의 적용과 응용
20.1 transformers에서 NLP 모형의 선택 방법
20.2 Hugging Face를 이용한 언어모형의 적용과 응용
20.3 Hugging Face를 이용한 Fine Tuning
제21장 LLM 만드는 절차와 Prompt Engineering
21.1 LLM 모형을 만드는 절차
21.2 한국형 LLM은 필요한가?
21.3 Prompt Engineering
참고문헌
찾아보기



















