logo
logo
x
바코드검색
BOOKPRICE.co.kr
책, 도서 가격비교 사이트
바코드검색

인기 검색어

실시간 검색어

검색가능 서점

도서목록 제공

베이지안으로 접근하는 자연어 처리 2/e

베이지안으로 접근하는 자연어 처리 2/e

(베이지안 통계 개념과 추론 기법, 모델링을 이용한 활용 분석까지, 2022년 대한민국학술원 우수학술도서 선정도서)

샤이 코헨 (지은이), 이재원, 김명준 (옮긴이)
에이콘출판
36,000원

일반도서

검색중
서점 할인가 할인률 배송비 혜택/추가 실질최저가 구매하기
32,400원 -10% 0원
1,800원
30,600원 >
32,400원 -10% 0원
카드할인 10%
3,240원
29,160원 >
yes24 로딩중
교보문고 로딩중
11st 로딩중
영풍문고 로딩중
쿠팡 로딩중
쿠팡로켓 로딩중
G마켓 로딩중
notice_icon 검색 결과 내에 다른 책이 포함되어 있을 수 있습니다.

중고도서

검색중
서점 유형 등록개수 최저가 구매하기
알라딘 판매자 배송 14개 22,000원 >
로딩중

eBook

검색중
서점 정가 할인가 마일리지 실질최저가 구매하기
로딩중

책 이미지

베이지안으로 접근하는 자연어 처리 2/e
eBook 미리보기

책 정보

· 제목 : 베이지안으로 접근하는 자연어 처리 2/e (베이지안 통계 개념과 추론 기법, 모델링을 이용한 활용 분석까지, 2022년 대한민국학술원 우수학술도서 선정도서)
· 분류 : 국내도서 > 컴퓨터/모바일 > 컴퓨터 공학 > 자료구조/알고리즘
· ISBN : 9791161755540
· 쪽수 : 388쪽
· 출판일 : 2021-09-30

책 소개

자연어 처리의 베이지안 학습에 관련된 연구를 할 때 이를 이해하는 데 필요한 방법과 알고리즘을 다룬다. 이러한 알고리즘은 대부분 머신러닝과 통계에서 차용되고 부분적으로 자연어 처리 방법을 참고한다.

목차

1장. 머리말

1.1 확률 측정: 확률측도, 확률함수
1.2 무작위 변수
1.2.1 연속과 이산 확률 변수
1.2.2 다중랜덤변수의 결합확률분포
1.3 조건부분포
1.3.1 베이즈 정리
1.3.2 독립 그리고 조건부 독립 랜덤변수
1.3.3 교환 가능한 랜덤변수
1.4 랜덤변수 기댓값
1.5 모델
1.5.1 모수 대 비모수 모델
1.5.2 모델로부터 추론
1.5.3 생성 모델
1.5.4 모델의 독립 가정
1.5.5 방향성 그래프 모델
1.6 시나리오 데이터로부터 학습
1.7 베이즈와 빈도주의 철학
1.8 요약
1.9 연습 문제

2장. 개요

2.1 개요: 베이지안 통계학과 NLP의 접점
2.2 첫 번째 연습 문제: 잠재 디리클레 할당 모델
2.2.1 디리클레분포
2.2.2 추론
2.2.3 요약 정리
2.3 두 번째 연습 문제: 베이지안 텍스트 회귀
2.4 결론과 요약
2.5 연습 문제

3장. 사전확률분포

3.1 켤레사전분포
3.1.1 켤레사전확률과 정규화 상수
3.1.2 잠재변수모델의 켤레사전확률 활용
3.1.3 켤레사전확률분포의 혼합
3.1.4 재정규화된 켤레분포
3.1.5 논의: 결합되거나 결합되지 않는다?
3.1.6 요약
3.2 다항분포와 카테고리분포에 대한 사전확률
3.2.1 디리클레분포 리뷰
3.2.2 로지스틱정규분포
3.2.3 논의
3.2.4 요약
3.3 비 - 정보성 사전확률분포
3.3.1 UNIFORM AND IMPROPER PRIORS
3.3.2 Jeffreys Prior
3.3.3 DISCUSSION
3.4 CONJUGACY AND EXPONENTIAL MODELS
3.5 모델이 갖는 다중 파라미터
3.6 구조적 사전확률분포
3.7 결론 및 정리
3.8 연습 문제

4장. 베이즈 추정.

4.1 잠재변수를 통해 배워 볼 두 가지 관점
4.2 베이지안 점 추정
4.2.1 최대 사후확률 추정 방법
4.2.2 최대사후확률방법에 따른 사후확률분포 근사
4.2.3 결정이론 점 추정치
4.2.4 정리
4.3 실험적 베이즈 정리
4.4 사후확률분포의 점근적 행동
4.5 요약
4.6 연습 문제

5장. 샘플링(표집) 방법

5.1 MCMC 알고리즘: 개요
5.2 MCMC 추론을 위한 자연어 처리 모델 구조
5.2.1 잠재변수 분할법
5.3 깁스 샘플링
5.3.1 축소된 깁스 샘플링
5.3.2 연산자 관점
5.3.3 깁스 샘플러 병렬화
5.3.4 요약
5.4 메트로폴리스 - 헤이스팅스 알고리즘
5.4.1 메트로폴리스 - 헤이스팅스의 변형
5.5 분할 샘플링
5.5.1 보조변수 샘플링
5.5.2 자연어 처리에서 분할 샘플링과 보조변수 샘플링 사용법
5.6 시뮬레이션 어닐링
5.7 MCMC 알고리즘의 수렴
5.8 마르코프 체인: 기본 이론
5.9 MCMC 영역에 포함되지 않는 샘플링 알고리즘
5.10 몬테카를로 적분
5.11 논의
5.11.1 분포 측정 대 샘플링
5.11.2 내포 MCMC 샘플링
5.11.3 MCMC 샘플러의 실행 시간
5.11.4 파티클 필터링
5.12 결론과 요약
5.13 연습 문제

6장. 변분 추론

6.1 주변 로그우도에 대한 변분 경계
6.2 평균장 근사법
6.3 평균장 변분 추론 알고리즘
6.3.1 디리클레 - 다항변분 추론
6.3.2 기댓값 - 최대화 알고리즘과의 관계
6.4 변분 추론을 활용한 경험적 베이즈 방법
6.5 토의
6.5.1 추론 알고리즘 초기 설정
6.5.2 수렴 진단
6.5.3 디코딩을 위한 변분 추론
6.5.4 KL 발산 최소화를 위한 변분 추론
6.5.5 온라인 변분 추론
6.6 요약
6.7 연습 문제

7장. 비모수적 사전분포

7.1 디리클레 프로세스: 3가지 관점
7.1.1 막대 절단 프로세스
7.1.2 중국집 프로세스
7.2 디리클레 프로세스 혼합 모형
7.2.1 디리클레 프로세스 혼합 모형 기반 추론
7.2.2 혼합 모형들의 극한 디리클레 프로세스
7.3 계층적 디리클레 프로세스
7.4 피트만 - 요르 프로세스
7.4.1 언어 모델링을 위한 피트만 - 요르 프로세스
7.4.2 피트만 - 요르 프로세스의 멱법칙 성질
7.5 토의
7.5.1 가우시안 프로세스
7.5.2 인디언 뷔페 프로세스
7.5.3 내포 중국집 프로세스
7.5.4 거리 - 종속 중국집 프로세스
7.5.5 시퀀스 메모이저
7.6 요약
7.7 연습 문제

8장. 베이지안 문법 모델

8.1 베이지안 히든 마르코프 모델
8.1.1 무한 상태 공간에서의 히든 마르코프 모델
8.2 확률적 문맥 자유 문법
8.2.1 다항의 모음으로 구성된 PCFG
8.2.2 PCFG를 위한 기본적인 추론 알고리즘
8.2.3 PCFG 관점의 히든 마르코프 모델
8.3 베이지안 확률적 문맥 자유 문법
8.3.1 PCFG에 대한 사전분포
8.3.2 베이지안 PCFG를 활용한 몬테카를로 추론
8.3.3 베이지안 PCFG를 활용한 변분 추론
8.4 어댑터 문법
8.4.1 피트만 - 요르 어댑터 문법
8.4.2 막대 절단 관점의 PYAG
8.4.3 PYAG를 활용한 추론
8.5 계층적 디리클레 프로세스 PCFGS
8.5.1 HDP - PCFG 모델로 확장
8.6 종속적 문법
8.6.1 상태 분할 비모수적 종속 모델
8.7 동시발생적 문법
8.8 다중 언어 학습
8.8.1 품사 태깅
8.8.2 문법 유도
8.9 더 읽어보기
8.10 요약
8.11 연습 문제

9장. 특성 표현 학습과 신경망

9.1 신경망 및 특성 표현 학습: 왜 지금인가?
9.2 단어 임베딩
9.2.1 단어 임베딩을 위한 스킵 - 그램 모델
9.2.2 베이지안 스킵 - 그램 단어 임베딩
9.2.3 토의
9.3 신경망
9.3.1 빈도론자 추정 및 역전파 알고리즘
9.3.2 신경망 가중치에 대한 사전분포
9.4 현대 NLP에서의 신경망 활용도
9.4.1 Recurrent and Recursive 신경망
9.4.2 경사도 소멸 및 폭발 문제
9.4.3 신경망 기반 인코더 - 디코더 모델
9.4.4 Convolutional Neural Networks(CNN)
9.5 신경망 조정
9.5.1 정칙화
9.5.2 초매개변수 조정
9.6 신경망을 통한 생성 모델링
9.6.1 변분 오토인코더
9.6.2 생성 적대 신경망
9.7 결론
9.8 연습 문제
맺음말

부록 A. 기본 개념
부록 B. 분포 카탈로그
참고문헌
찾아보기

저자소개

샤이 코헨 (지은이)    정보 더보기
에든버러대학교 정보학과, 언어, 인지 및 계산 연구소의 강사다. 2011년 카네기멜론대학교에서 언어 기술 전공으로 박사학위를 받았으며 석사 및 학사학위는 텔아비브대학교에서 각각 컴퓨터 과학 및 수학 전공으로 학위를 받았다. 2011년에서 2013년 사이에 Computing Innovation Fellowship을 받으며 컬럼비아대학교에서 박사후 과정을 연수했으며 2013년에서 2018년 사이에 에든버러대학교에서 Chancellor's Fellowship을 받았다. 연구 관심사는 자연어 처리와 머신러닝이며 구문 및 구문 분석과 같은 구조적 예측 문제에 중점을 둔다.
펼치기
이재원 (옮긴이)    정보 더보기
미국에서 컴퓨터공학과 통계를 전공했으며, 금융권에서 머신러닝을 활용한 데이터 분석을 연구한 후, IT 회사에서 자연어 처리 모델 연구를 했다. 특히 자연어 처리 모델을 활용해 챗봇을 연구 개발했다. 이후 산업공학과 박사과정에 재학 중이며, 현재 세컨핸드 패션 플랫폼을 만드는 스타트업에서 CTO로 재직하고 있다.
펼치기
김명준 (옮긴이)    정보 더보기
미국에서 수학과 경제학을 전공했으며 이후 다계층 네트워크 머신러닝 모델 연구로 박사학위를 받았다. 현재 박사후 연구원으로 그래프 기반 머신러닝 연구와 이를 활용한 바이오메디컬, 역사 분야의 응용 연구를 수행하고 있다.
펼치기

책속에서



추천도서

이 포스팅은 쿠팡 파트너스 활동의 일환으로,
이에 따른 일정액의 수수료를 제공받습니다.
이 포스팅은 제휴마케팅이 포함된 광고로 커미션을 지급 받습니다.
도서 DB 제공 : 알라딘 서점(www.aladin.co.kr)
최근 본 책