책 이미지

책 정보
· 분류 : 국내도서 > 컴퓨터/모바일 > 프로그래밍 언어 > 프로그래밍 언어 기타
· ISBN : 9791127464967
· 쪽수 : 296쪽
· 출판일 : 2023-09-15
책 소개
목차
문의 사항 가이드라인
예제 파일 및 프로그램 안내
Chapter 0 소개
0.1 이 책에 대해서 16
0.1.1 이 책의 특징 16
0.1.2 Python의 기초를 배운다 16
0.1.3 이 책의 구성 17
0.1.4 이 책으로 할 수 있게 되는 것 17
0.1.5 이 책의 주의 사항 18
0.1.6 이 책의 대상 독자 18
0.1.7 이 책의 사용법
Chapter 1 PyTorch와 심층학습
1.1 PyTorch
1.1.1 PyTorch의 개요
1.2 심층학습
1.2.1 인공지능, 기계학습, 심층학습
1.2.2 신경 세포
1.2.3 신경 세포의 네트워크
1.2.4 신경망과 뉴런
1.2.5 신경망의 구조
1.2.6 백프로퍼게이션(오차역전파법)
1.2.7 심층학습(딥러닝)
1.3 정리
Chapter 2 개발환경
2.1 Google Colaboratory 시작하는 방법
2.1.1 Google Colaboratory 사전 준비
2.1.2 노트북의 사용법
2.1.3 다운로드한 파일 다루는 법
2.2 세션과 인스턴스
2.2.1 세션과 인스턴스
2.2.2 90분 규칙
2.2.3 12시간 규칙
2.2.4 세션 관리
2.3 CPU와 GPU
2.3.1 CPU, GPU, TPU
2.3.2 GPU 사용법
2.3.3 성능 비교
2.4 Google Colaboratory의 다양한 기능
2.4.1 텍스트 셀
2.4.2 스크래치 코드 셀
2.4.3 코드 스니펫
2.4.4 코드의 실행 이력
2.4.5 GitHub와 연계하기
2.5 연습
2.5.1 코드 셀 조작
2.5.2 텍스트 셀 조작
2.5.3 셀의 위치 변경과 삭제
2.6 정리
Chapter 3 PyTorch로 구현하는 간단한 심층학습
3.1 구현의 개요
3.1.1 학습 파라미터와 하이퍼 파라미터
3.1.2 순전파와 역전파
3.1.3 구현 순서
3.2 Tensor
3.2.1 패키지 확인
3.2.2 Tensor 생성
3.2.3 NumPy 배열과 Tensor의 상호 변환
3.2.4 범위를 지정하여 Tensor의 일부에 접근
3.2.5 Tensor의 연산
3.2.6 Tensor 형태 변환하기
3.2.7 다양한 통계값 계산
3.2.8 간단 연습: Tensor끼리 연산
3.2.9 정답 예
3.3 활성화 함수
3.3.1 시그모이드 함수
3.3.2 tanh
3.3.3 ReLU
3.3.4 항등 함수
3.3.5 소프트맥스 함수
3.4 손실 함수
3.4.1 평균 제곱 오차
3.4.2 교차 엔트로피 오차
3.5 최적화 알고리즘
3.5.1 경사와 경사 하강법
3.5.2 최적화 알고리즘의 개요
3.5.3 확률적 경사 하강법
3.5.4 모멘텀
3.5.5 AdaGrad
3.5.6 RMSProp
3.5.7 Adam
3.6 간단한 심층학습의 구현
3.6.1 손글씨 문자 이미지의 확인
3.6.2 데이터를 훈련용과 테스트용으로 분할
3.6.3 모델 구축
3.6.4 학습
3.6.5 오차 추이
3.6.6 정답률
3.6.7 훈련한 모델을 사용한 예측
3.7 연습
3.7.1 데이터를 훈련용과 테스트용으로 분할
3.7.2 모델 구축
3.7.3 학습
3.7.4 오차 추이
3.7.5 정답률
3.7.6 정답 예
3.8 정리
Chapter 4 자동 미분과 DataLoader
4.1 자동 미분0
4.1.1 requires_grad 속성
4.1.2 Tensor의 연산 기록
4.1.3 경사 계산
4.2 에포크와 배치
4.2.1 에포크와 배치
4.2.2 배치 학습
4.2.3 온라인 학습
4.2.4 미니 배치 학습
4.2.5 학습의 예
4.3 DataLoader
4.3.1 데이터 읽어 들이기
4.3.2 DataLoader의 설정
4.3.3 모델 구축
4.3.4 학습
4.3.5 오차 추이
4.3.6 정답률
4.4 연습
4.4.1 데이터 읽어 들이기
4.4.2 DataLoader의 설정
4.4.3 모델 구축
4.4.4 학습
4.4.5 오차 추이
4.4.6 정답률
4.4.7 정답 예
4.5 정리
Chapter 5 CNN(합성곱 신경망)
5.1 CNN의 개요
5.1.1 CNN
5.1.2 CNN의 각 층
5.2 합성곱과 풀링
5.2.1 합성곱층
5.2.2 여러 개 채널, 여러 개 필터의 합성곱
5.2.3 합성곱층의 구현
5.2.4 풀링층
5.2.5 풀링층의 구현
5.2.6 패딩
5.2.7 스트라이드
5.2.8 합성곱을 이용한 이미지 크기의 변화
5.3 데이터 확장
5.3.1 CIFAR-10
5.3.2 데이터 확장: 회전과 크기 조절
5.3.3 데이터 확장: 이동
5.3.4 데이터 확장: 반전
5.3.5 데이터 확장: 일부를 소거
5.4 드롭아웃
5.4.1 드롭아웃의 구현
5.5 CNN 구현
5.5.1 DataLoader의 설정
5.5.2 CNN 모델의 구축
5.5.3 학습
5.5.4 오차 추이
5.5.5 정답률
5.5.6 훈련한 모델을 사용한 예측
5.6 연습
5.6.1 DataLoader의 설정
5.6.2 CNN 모델의 구축
5.6.3 학습
5.6.4 오차 추이
5.6.5 정답률
5.6.6 훈련한 모델을 사용한 예측
5.6.7 정답 예
5.7 정리
Chapter 6 RNN(순환 신경망)
6.1 RNN의 개요
6.1.1 RNN
6.1.2 간단한 RNN 층의 구현
6.2 간단한 RNN의 구현
6.2.1 훈련용 데이터의 작성
6.2.2 데이터의 전처리
6.2.3 모델 구축
6.2.4 학습
6.2.5 오차 추이
6.3 LSTM의 개요
6.3.1 LSTM
6.3.2 LSTM층의 내부 요소
6.3.3 출력 게이트(Output gate)
6.3.4 망각 게이트(Forget gate)
6.3.5 입력 게이트(Input gate)
6.3.6 기억 셀(Memory cell)
6.3.7 LSTM층의 구현
6.4 GRU의 개요
6.4.1 GRU
6.4.2 GRU층의 구현
6.5 RNN을 이용한 이미지 생성
6.5.1 이미지를 시계열 데이터로서 파악한다
6.5.2 Fashion-MNIST
6.5.3 데이터의 전처리
6.5.4 테스트용의 데이터
6.5.5 모델의 구축
6.5.6 이미지 생성을 위한 함수
6.5.7 학습
6.5.8 오차 추이
6.6 연습
6.6.1 데이터의 전처리
6.6.2 테스트용 데이터
6.6.3 모델 구축
6.6.4 이미지 생성을 위한 함수
6.6.5 학습
6.6.6 오차 추이
6.6.7 정답 예
6.7 정리
Chapter 7 인공지능 앱의 구축과 공개
7.1 Streamlit으로 인공지능 앱 개발하기
7.1.1 Streamlit
7.1.2 Streamlit을 이용한 인공지능 앱 개발
7.2 모델 구축과 훈련
7.2.1 훈련 데이터 읽어들이기와 DataLoader의 설정
7.2.2 모델 구축
7.2.3 학습
7.2.4 오차 추이
7.2.5 정답률
7.2.6 모델 저장
7.2.7 훈련한 파라미터의 다운로드
7.3 이미지 인식 앱의 구축
7.3.1 ngrok의 설정
7.3.2 라이브러리 설치
7.3.3 훈련한 파라미터를 업로드
7.3.4 모델을 다루는 파일
7.3.5 앱의 코드
7.3.6 Authtoken의 설정
7.3.7 앱 실행과 동작 확인
7.3.8 requirements.txt의 작성
7.3.9 파일 다운로드하기
7.4 앱 배포하기
7.4.1 GitHub에 등록하기
7.4.2 저장소의 작성과 파일 업로드
7.4.3 Streamlit Cloud로 등록하기
7.4.4 신규 앱의 등록
7.5 연습
7.6 정리
찾아보기