책 이미지

책 정보
· 분류 : 국내도서 > 컴퓨터/모바일 > 컴퓨터 공학 > 자료구조/알고리즘
· ISBN : 9791161755540
· 쪽수 : 388쪽
· 출판일 : 2021-09-30
책 소개
목차
1장. 머리말
1.1 확률 측정: 확률측도, 확률함수
1.2 무작위 변수
1.2.1 연속과 이산 확률 변수
1.2.2 다중랜덤변수의 결합확률분포
1.3 조건부분포
1.3.1 베이즈 정리
1.3.2 독립 그리고 조건부 독립 랜덤변수
1.3.3 교환 가능한 랜덤변수
1.4 랜덤변수 기댓값
1.5 모델
1.5.1 모수 대 비모수 모델
1.5.2 모델로부터 추론
1.5.3 생성 모델
1.5.4 모델의 독립 가정
1.5.5 방향성 그래프 모델
1.6 시나리오 데이터로부터 학습
1.7 베이즈와 빈도주의 철학
1.8 요약
1.9 연습 문제
2장. 개요
2.1 개요: 베이지안 통계학과 NLP의 접점
2.2 첫 번째 연습 문제: 잠재 디리클레 할당 모델
2.2.1 디리클레분포
2.2.2 추론
2.2.3 요약 정리
2.3 두 번째 연습 문제: 베이지안 텍스트 회귀
2.4 결론과 요약
2.5 연습 문제
3장. 사전확률분포
3.1 켤레사전분포
3.1.1 켤레사전확률과 정규화 상수
3.1.2 잠재변수모델의 켤레사전확률 활용
3.1.3 켤레사전확률분포의 혼합
3.1.4 재정규화된 켤레분포
3.1.5 논의: 결합되거나 결합되지 않는다?
3.1.6 요약
3.2 다항분포와 카테고리분포에 대한 사전확률
3.2.1 디리클레분포 리뷰
3.2.2 로지스틱정규분포
3.2.3 논의
3.2.4 요약
3.3 비 - 정보성 사전확률분포
3.3.1 UNIFORM AND IMPROPER PRIORS
3.3.2 Jeffreys Prior
3.3.3 DISCUSSION
3.4 CONJUGACY AND EXPONENTIAL MODELS
3.5 모델이 갖는 다중 파라미터
3.6 구조적 사전확률분포
3.7 결론 및 정리
3.8 연습 문제
4장. 베이즈 추정.
4.1 잠재변수를 통해 배워 볼 두 가지 관점
4.2 베이지안 점 추정
4.2.1 최대 사후확률 추정 방법
4.2.2 최대사후확률방법에 따른 사후확률분포 근사
4.2.3 결정이론 점 추정치
4.2.4 정리
4.3 실험적 베이즈 정리
4.4 사후확률분포의 점근적 행동
4.5 요약
4.6 연습 문제
5장. 샘플링(표집) 방법
5.1 MCMC 알고리즘: 개요
5.2 MCMC 추론을 위한 자연어 처리 모델 구조
5.2.1 잠재변수 분할법
5.3 깁스 샘플링
5.3.1 축소된 깁스 샘플링
5.3.2 연산자 관점
5.3.3 깁스 샘플러 병렬화
5.3.4 요약
5.4 메트로폴리스 - 헤이스팅스 알고리즘
5.4.1 메트로폴리스 - 헤이스팅스의 변형
5.5 분할 샘플링
5.5.1 보조변수 샘플링
5.5.2 자연어 처리에서 분할 샘플링과 보조변수 샘플링 사용법
5.6 시뮬레이션 어닐링
5.7 MCMC 알고리즘의 수렴
5.8 마르코프 체인: 기본 이론
5.9 MCMC 영역에 포함되지 않는 샘플링 알고리즘
5.10 몬테카를로 적분
5.11 논의
5.11.1 분포 측정 대 샘플링
5.11.2 내포 MCMC 샘플링
5.11.3 MCMC 샘플러의 실행 시간
5.11.4 파티클 필터링
5.12 결론과 요약
5.13 연습 문제
6장. 변분 추론
6.1 주변 로그우도에 대한 변분 경계
6.2 평균장 근사법
6.3 평균장 변분 추론 알고리즘
6.3.1 디리클레 - 다항변분 추론
6.3.2 기댓값 - 최대화 알고리즘과의 관계
6.4 변분 추론을 활용한 경험적 베이즈 방법
6.5 토의
6.5.1 추론 알고리즘 초기 설정
6.5.2 수렴 진단
6.5.3 디코딩을 위한 변분 추론
6.5.4 KL 발산 최소화를 위한 변분 추론
6.5.5 온라인 변분 추론
6.6 요약
6.7 연습 문제
7장. 비모수적 사전분포
7.1 디리클레 프로세스: 3가지 관점
7.1.1 막대 절단 프로세스
7.1.2 중국집 프로세스
7.2 디리클레 프로세스 혼합 모형
7.2.1 디리클레 프로세스 혼합 모형 기반 추론
7.2.2 혼합 모형들의 극한 디리클레 프로세스
7.3 계층적 디리클레 프로세스
7.4 피트만 - 요르 프로세스
7.4.1 언어 모델링을 위한 피트만 - 요르 프로세스
7.4.2 피트만 - 요르 프로세스의 멱법칙 성질
7.5 토의
7.5.1 가우시안 프로세스
7.5.2 인디언 뷔페 프로세스
7.5.3 내포 중국집 프로세스
7.5.4 거리 - 종속 중국집 프로세스
7.5.5 시퀀스 메모이저
7.6 요약
7.7 연습 문제
8장. 베이지안 문법 모델
8.1 베이지안 히든 마르코프 모델
8.1.1 무한 상태 공간에서의 히든 마르코프 모델
8.2 확률적 문맥 자유 문법
8.2.1 다항의 모음으로 구성된 PCFG
8.2.2 PCFG를 위한 기본적인 추론 알고리즘
8.2.3 PCFG 관점의 히든 마르코프 모델
8.3 베이지안 확률적 문맥 자유 문법
8.3.1 PCFG에 대한 사전분포
8.3.2 베이지안 PCFG를 활용한 몬테카를로 추론
8.3.3 베이지안 PCFG를 활용한 변분 추론
8.4 어댑터 문법
8.4.1 피트만 - 요르 어댑터 문법
8.4.2 막대 절단 관점의 PYAG
8.4.3 PYAG를 활용한 추론
8.5 계층적 디리클레 프로세스 PCFGS
8.5.1 HDP - PCFG 모델로 확장
8.6 종속적 문법
8.6.1 상태 분할 비모수적 종속 모델
8.7 동시발생적 문법
8.8 다중 언어 학습
8.8.1 품사 태깅
8.8.2 문법 유도
8.9 더 읽어보기
8.10 요약
8.11 연습 문제
9장. 특성 표현 학습과 신경망
9.1 신경망 및 특성 표현 학습: 왜 지금인가?
9.2 단어 임베딩
9.2.1 단어 임베딩을 위한 스킵 - 그램 모델
9.2.2 베이지안 스킵 - 그램 단어 임베딩
9.2.3 토의
9.3 신경망
9.3.1 빈도론자 추정 및 역전파 알고리즘
9.3.2 신경망 가중치에 대한 사전분포
9.4 현대 NLP에서의 신경망 활용도
9.4.1 Recurrent and Recursive 신경망
9.4.2 경사도 소멸 및 폭발 문제
9.4.3 신경망 기반 인코더 - 디코더 모델
9.4.4 Convolutional Neural Networks(CNN)
9.5 신경망 조정
9.5.1 정칙화
9.5.2 초매개변수 조정
9.6 신경망을 통한 생성 모델링
9.6.1 변분 오토인코더
9.6.2 생성 적대 신경망
9.7 결론
9.8 연습 문제
맺음말
부록 A. 기본 개념
부록 B. 분포 카탈로그
참고문헌
찾아보기