logo
logo
x
바코드검색
BOOKPRICE.co.kr
책, 도서 가격비교 사이트
바코드검색

인기 검색어

실시간 검색어

검색가능 서점

도서목록 제공

PyTorch로 배우는 딥러닝과 생성형 AI

PyTorch로 배우는 딥러닝과 생성형 AI

(개념부터 Vision, 생성형 모형, Foundation 모형의 구현까지)

박유성 (지은이)
자유아카데미
43,000원

일반도서

검색중
서점 할인가 할인률 배송비 혜택/추가 실질최저가 구매하기
43,000원 -0% 0원
430원
42,570원 >
yes24 로딩중
교보문고 로딩중
11st 로딩중
영풍문고 로딩중
쿠팡 로딩중
쿠팡로켓 로딩중
G마켓 로딩중
notice_icon 검색 결과 내에 다른 책이 포함되어 있을 수 있습니다.

중고도서

검색중
서점 유형 등록개수 최저가 구매하기
로딩중

eBook

검색중
서점 정가 할인가 마일리지 실질최저가 구매하기
aladin 43,000원 -10% 2150원 36,550원 >

책 이미지

PyTorch로 배우는 딥러닝과 생성형 AI
eBook 미리보기

책 정보

· 제목 : PyTorch로 배우는 딥러닝과 생성형 AI (개념부터 Vision, 생성형 모형, Foundation 모형의 구현까지)
· 분류 : 국내도서 > 대학교재/전문서적 > 공학계열 > 컴퓨터공학 > 전산수학
· ISBN : 9791158087739
· 쪽수 : 640쪽
· 출판일 : 2025-11-05

목차

1부 딥러닝의 작동원리

제1장 머신러닝 학습 절차의 핵심 및 내용 요약
1.1 ML(machine learning)
1.2 DL(deep learning)
1.3 RL(Reinforcement learning)

제2장 딥러닝 데이터와 세 가지 기본신경망
2.1 데이터의 사전정리
2.2 딥러닝에 사용되는 데이터의 형태
2.3 은닉층 설계를 위한 세 가지 핵심 신경망

제3장 손실함수와 최적화
3.1 출력층과 손실함수
3.2 역전파
3.3 최적화 알고리즘

제4장 Pytorch의 이해
4.1 Pytorch의 문법과 적용
4.2 딥러닝 모델과 데이터 셋의 구조와 모델의 저장
4.3 MLP, RNN, 그리고 CNN의 적용

제5장 오차분석, 초모수 조절, 그리고 딥러닝 모형의 성능 향상
5.1 오차분석
5.2 자료 분할
5.3 초모수 조절
5.4 딥러닝 모형의 성능 향상

제6장 CNN의 응용과 이전학습
6.1 사람의 성별을 구별하기 위한 CNN의 적용
6.2 이전학습
6.3 이전학습과 자료증대

제7장 텍스트 자료의 사전정리와 RNN의 적용
7.1 텍스트 자료의 사전정리과정
7.2 Word2Vec, Glove, 그리고 Word Embedding
7.3 RNN 모형의 적용
7.4 다른 RNN 모형과 CNN 모형과의 비교
7.5 텍스트 데이터의 사전정리의 요약

제8장 Mamba, GNN, KAN 모형을 이용한 시계열 분석
8.1 Mamba
8.2 GNN(Graph Neural Network)
8.3 KAN(Komogorov Arnold Network)
8.4 시계열 자료의 적용

제9장 CNN 아키텍처의 진화
9.1 LeNet-5
9.2 AlexNet
9.3 VGGNet
9.4 ResNet
9.5 Inception
9.6 Stem-Learner-Task 아키텍처
9.7 딥러닝의 진화

2부 Computer Vision

제10장 객체탐색 I (R-CNN, Fast R-CNN, Faster R-CNN)
10.1 Upsampling
10.2 교통표식의 식별
10.3 R-CNN에 의한 객체탐색
10.4 Fast R-CNN
10.5 Faster R-CNN

제11장 객체탐색 II (YOLO~YOLO12)
11.1 YOLO의 참사각박스와 목적변수의 결정
11.2 YOLO-v3
11.3 YOLO version의 진화

제12장 채널 시각화, 딥드림, 그리고 스타일 이전
12.1 채널 시각화
12.2 딥드림
12.3 스타일 이전

제13장 Variational Autoencoder와 Diffusion 모형
13.1 AutoEncoder
13.2 Variational Autoencoder
13.3 조건부 VAE
13.4 Diffusion 모형

제14장 Generative Adversarial Networks(GAN)
14.1 DCGAN
14.2 Cycle GAN

3부 LLM

제15장 Seq2Seq 모형
15.1 자료의 사전정리
15.2 sequence-to-sequence 학습
15.3 Attention을 이용한 Seq2Seq

제16장 Transformer
16.1 Transformer의 입력층
16.2 Transformer의 은닉층
16.3 Transformer의 적용
16.4 한국어 챗봇

제17장 자연어 모형
17.1 사전학습, fine tuning, few-shot, 그리고 zero-shot 학습
17.2 서브워드 토큰화
17.3 Auto-encoding 언어모형
17.4 GPT(generative pretrained transformer)와 text 생성을 위한 Sampling

제18장 ViT, OCR, CLIP, Stable Diffusion, SAM, In-painting
18.1 ViT(Vision Transformer)
18.2 TrOCR
18.3 CLIP(contrastive language-image pre-training)
18.4 Stable Diffusion 모형
18.5 SAM(Segmentation Anything Model)
18.6 In-painting

제19장 LLM 모형의 진화
19.1 T5와 LlaMA
19.2 Transformer attention의 진화
19.3 RWKV
19.4 LLM 모형의 적절성 조절
19.5 RAG(Retrieval Augmented Generation)
19.6 LLM 모형의 비교와 Open source LLM
19.7 AI의 진화

제20장 Hugging Face를 이용한 언어모형의 적용과 응용
20.1 transformers에서 NLP 모형의 선택 방법
20.2 Hugging Face를 이용한 언어모형의 적용과 응용
20.3 Hugging Face를 이용한 Fine Tuning

제21장 LLM 만드는 절차와 Prompt Engineering
21.1 LLM 모형을 만드는 절차
21.2 한국형 LLM은 필요한가?
21.3 Prompt Engineering

참고문헌
찾아보기

저자소개

박유성 (지은이)    정보 더보기
● 고려대학교 정경대학 통계학과 졸업 ● 고려대학교 대학원 석사과정 졸업(통계학 전공) ● 미국 조지아대학교 대학원 졸업(통계학 박사) ● 현재 고려대학교 명예교수
펼치기

추천도서

이 포스팅은 쿠팡 파트너스 활동의 일환으로,
이에 따른 일정액의 수수료를 제공받습니다.
이 포스팅은 제휴마케팅이 포함된 광고로 커미션을 지급 받습니다.
도서 DB 제공 : 알라딘 서점(www.aladin.co.kr)
최근 본 책
9791158087807