책 이미지

책 정보
· 분류 : 국내도서 > 컴퓨터/모바일 > 프로그래밍 언어 > 파이썬
· ISBN : 9791161754628
· 쪽수 : 536쪽
· 출판일 : 2020-10-30
책 소개
목차
1부. 머신러닝과 OpenCV의 기본 원리
1장. 머신러닝 시작
__기술적 요구 사항
__머신러닝 시작
__머신러닝으로 해결할 수 있는 문제
__파이썬 시작
__OpenCV 시작
__설치
____이 책의 최신 코드 얻기
____파이썬의 아나콘다 배포판
____conda 환경에서 OpenCV 설치
____설치 확인
____OpenCV의 ML 모듈 엿보기
__머신러닝의 응용
__OpenCV 4.0의 새로운 기능
__요약
2장. OpenCV로 데이터 작업
__기술적 요구 사항
__머신러닝 워크플로의 이해
__OpenCV와 파이썬을 사용한 데이터 취급
____새로운 IPython이나 주피터 세션 시작
____파이썬 NumPy 패키지를 사용한 데이터 취급
______NumPy 가져오기
______NumPy 배열의 이해
______인덱싱을 통해 단일 배열 요소에 액세스
______다차원 배열 만들기
____파이썬에서 외부 데이터 세트 불러오기
____Matplotlib을 사용한 데이터 시각화
______Matplotlib 가져오기
______간단한 플롯 만들기
______외부 데이터 세트의 데이터 시각화
____C++에서 OpenCV의 TrainData 컨테이너를 사용해 데이터 다루기
__요약
3장. 지도학습의 첫 번째 단계
__기술적 요구 사항
__지도학습 이해
____OpenCV에서 지도학습 살펴보기
____점수화 함수로 모델 성능 측정
______정확도, 정확률, 재현율을 사용하는 점수화 분류기
______평균 제곱 오차, 분산, R 제곱을 사용한 회귀 분석
__분류 모델을 사용한 클래스 레이블 예측
____k-최근접 이웃 알고리즘의 이해
____OpenCV에서 k-최근접 이웃 구현
______훈련 데이터 생성
______분류기 훈련
______새 데이터 요소의 레이블 예측
__회귀 모델을 사용해 지속적인 결과 예측
____선형 회귀 분석
____OpenCV의 선형 회귀 방법
____선형 회귀 분석 방법을 사용해 보스턴 주택 가격 예측
______데이터 세트 불러오기
______모델 훈련
______모델 테스트
____라소와 융기 회귀 적용
__로지스틱 회귀를 이용한 아이리스 종 분류
____로지스틱 회귀 이해
______훈련 자료 불러오기
______이진 분류 문제로 만들기
______데이터 검사
______데이터를 훈련 세트와 테스트 세트로 나누기
______분류기 훈련
______분류기 테스트
__요약
4장. 데이터와 엔지니어링 특징 표현
__기술적 요구 사항
__특징 엔지니어링의 이해
__전처리 데이터
____특징 표준화
____특징 정규화
____특징의 범위 확장
____특징 이진화
____누락된 데이터 처리
__차원 축소의 이해
____OpenCV에서 PCA 구현
____ICA 구현
____NMF 구현
____t-분산 확률적 이웃 임베딩(t-SNE)을 이용한 차원 감소 시각화
__범주형 변수 표현
__텍스트 특징 표현
__이미지 표현
____색 공간 사용
______RGB 공간에서 이미지 인코딩
______HSV와 HLS 공간에서 이미지 인코딩
____이미지의 코너 검출
____스타(star) 검출기와 BRIP 설명자(descriptor) 사용
____ORB 사용
__요약
2부.OpenCV 사용법
5장. 의사 결정 트리를 사용한 의학 진단
__기술적 요구 사항
__의사 결정 트리의 이해
____첫 번째 의사 결정 트리 만들기
______새 데이터 만들기
______데이터를 이해한 후 작업에 활용
______데이터 전처리
______트리 만들기
____훈련된 의사 결정 트리의 시각화
____의사 결정 트리의 내부 동작 조사
____특징 중요도 평가
____의사 결정 규칙 이해
____의사 결정 트리의 복잡도 제어
__의사 결정 트리를 사용해 유방암 진단
____데이터 세트 불러오기
____의사 결정 트리 만들기
__회귀 결정 트리 사용
__요약
6장. 서포트 벡터 머신으로 보행자 검출
__기술적 요구 사항
__서포트 벡터 시스템의 이해
____최적의 의사 결정 경계 학습
____첫 번째 서포트 벡터 머신 구현
______데이터 세트 생성
______데이터 세트 시각화
______데이터 세트 전처리
______서포트 벡터 머신 구축
______의사 결정 경계 시각화
__비선형 의사 결정 경계 다루기
____커널 트릭의 이해
____사용자가 사용할 커널 파악
____비선형 서포트 벡터 머신 구현
__실생활에서 보행자 검출
____데이터 세트 가져오기
____HOG 훑어보기
____네거티브 생성
____서포트 벡터 머신 구현
____모델 부트스트랩
____더 큰 이미지에서 보행자 검출
____모델 개선
____SVM을 사용한 다중 클래스 분류
______데이터 정보
______속성 정보
__요약
7장. 베이지안 학습을 이용한 스팸 필터 구현
__기술적 요구 사항
__베이지안 추론의 이해
____확률 이론 간단히 살펴보기
____베이즈 정리의 이해
____나이브 베이즈 분류기의 이해
__첫 번째 베이지안 분류기 구현
____장난감 데이터 세트 만들기
____일반 베이즈 분류기로 데이터 분류
____나이브 베이즈 분류기로 데이터 분류
____조건부 확률의 시각화
__나이브 베이즈 분류기를 사용한 이메일 분류
____데이터 세트 불러오기
____판다스를 사용해 데이터 행렬 만들기
____데이터 전처리
____정상적인 베이즈 분류기 훈련
____전체 데이터 세트에 대한 훈련
____n-그램을 사용한 결과 개선
____TF-IDF를 사용한 결과 개선
__요약
8장. 비지도학습으로 숨겨진 구조 발견
__기술적 요구 사항
__비지도학습의 이해
__k-평균 클러스터링의 이해
____첫 번째 k-평균 예제 구현
__기댓값 최대화 방법의 이해
____기댓값 최대화 솔루션 구현
____기댓값 최대화의 한계 파악
______첫 번째 경고: 전반적인 최적 결과를 찾기 어렵다
______두 번째 경고: 미리 클러스터 수를 선택해야 한다
______세 번째 경고: 클러스터 경계는 선형이다
______네 번째 경고: k-평균은 많은 수의 샘플에서는 느리다
__k-평균을 사용한 색 공간 압축
____트루 컬러 팔레트 시각화
____k-평균을 사용한 색상 팔레트 축소
__k-평균을 사용한 숫자 필기 인식 분류
____데이터 세트 불러오기
____k-평균 실행
__클러스터를 계층적 트리로 구성
____계층적 클러스터링의 이해
____응집력 있는 계층적 클러스터링 구현
____클러스터링 알고리즘 비교
__요약
3부OpenCV를 사용한 고급 머신러닝
9장. 딥러닝을 사용한 숫자 필기 인식 분류
__기술적 요구 사항
__맥컬럭-피츠 뉴런의 이해
__퍼셉트론의 이해
__첫 번째 퍼셉트론 구현
____장난감 데이터 세트 생성
____퍼셉트론을 데이터에 적용
____퍼셉트론 분류기 평가
____선형으로 분리되지 않는 데이터에 퍼셉트론 적용
__다층 퍼셉트론의 이해
____경사 하강법의 이해
____역전파를 이용한 MLP 훈련
____OpenCV에서 MLP 구현
______데이터 전처리
______OpenCV에서 MLP 분류기 만들기
______MLP 분류기의 사용자 정의
______MLP 분류기 훈련과 테스트
__딥러닝에 익숙해지기
____케라스에 익숙해지기
__숫자 필기 인식 분류
____MNIST 데이터 세트 가져오기
____MNIST 데이터 세트 전처리
____OpenCV를 사용한 MLP 훈련
____케라스를 이용한 심층 신경망 훈련
______MNIST 데이터 세트 전처리
______컨볼루션 신경망(CNN) 만들기
______모델 요약
______모델 피팅
__요약
10장. 앙상블 기법으로 분류
__기술적 요구 사항
__앙상블 메서드의 이해
____평균 앙상블의 이해
______배깅 분류기 구현
______배깅 회귀기 구현
____부스터 앙상블의 이해
______약한 학습기
______부스팅 분류기 구현
______부스팅 회귀기 구현
____스태킹 앙상블의 이해
__의사 결정 트리를 랜덤 포레스트로 결합
____의사 결정 트리의 단점 이해
____첫 번째 랜덤 포레스트 구현
____scikit-learn을 사용한 랜덤 포레스트 구현
____과랜덤화된 트리 구현
__얼굴 인식을 위한 랜덤 포레스트 사용
____데이터 세트 불러오기
____데이터 세트 전처리
____랜덤 포레스트 훈련과 테스트
__AdaBoost 구현
____OpenCV에서 AdaBoost 구현
____scikit-learn에서 AdaBoost 구현
__다른 모델을 투표 분류기로 결합
____다양한 투표 방법의 이해
____투표 분류기 구현
____다원성
__요약
11장. 하이퍼 매개변수 튜닝으로 올바른 모델 선택
__기술적 요구 사항
__모델 평가
____잘못된 방식으로 모델 평가
____올바른 방식으로 모델 평가
____최고의 모델 선택
__교차 유효성 검증의 이해
____OpenCV에서 교차 유효성의 매뉴얼 검증 구현
____scikit-learn을 사용한 k-겹 교차 검증
____단일 관측값 제거법 교차 검증의 구현
__견고성 예측에 부트스트랩 사용
____OpenCV에서 부트스트랩을 직접 구현
__결과의 중요성 평가
____스튜던트 t-검정 구현
____맥니마의 검정 구현
__그리드 검색으로 하이퍼 매개변수 튜닝
____간단한 그리드 검색 구현
____유효성 검증 세트의 값 이해
____교차 유효성 검증과 함께 그리드 검색 결합
____중첩된 교차 유효성 검증과 함께 그리드 검색 결합
__다양한 평가 메트릭을 사용한 점수화 모델
____올바른 분류 기준 선택
____올바른 회귀 메트릭 선택
__파이프라인을 형성하기 위한 체이닝 알고리즘
____scikit-learn에서 파이프라인 구현
____그리드 검색에서 파이프라인 사용
__요약
12장. OpenCV의 OpenVINO 사용
__기술적 요구 사항
__OpenVINO 소개
__OpenVINO 툴킷 설치
____OpenVINO 구성 요소
__대화형 얼굴 검출 데모
__OpenCV와 함께 OpenVINO 추론 엔진 사용
__OpenCV와 함께 OpenVINO 모델 동물원 사용
__OpenVINO 추론 엔진이 있는 OpenCV를 사용한 이미지 분류
____OpenVINO를 사용한 이미지 분류
____OpenVINO와 함께 OpenCV를 사용한 이미지 분류
__요약
13장. 결론
__기술적 요구 사항
__머신러닝 문제점에 접근
__자신만의 추정기 작성
____자신만의 OpenCV 기반 분류기를 C++로 작성
____파이썬으로 자신만의 scikit-learn 기반 분류기 작성
__다음 단계
__요약