logo
logo
x
바코드검색
BOOKPRICE.co.kr
책, 도서 가격비교 사이트
바코드검색

인기 검색어

실시간 검색어

검색가능 서점

도서목록 제공

구글 BERT의 정석

구글 BERT의 정석

(인공지능, 자연어 처리를 위한 BERT의 모든 것)

수다르산 라비찬디란 (지은이), 전희원, 정승환, 김형준 (옮긴이)
  |  
한빛미디어
2021-11-03
  |  
34,000원

일반도서

검색중
서점 할인가 할인률 배송비 혜택/추가 실질최저가 구매하기
알라딘 30,600원 -10% 0원 1,700원 28,900원 >
yes24 로딩중
교보문고 로딩중
영풍문고 로딩중
인터파크 로딩중
11st 로딩중
G마켓 로딩중
쿠팡 로딩중
쿠팡로켓 로딩중
notice_icon 검색 결과 내에 다른 책이 포함되어 있을 수 있습니다.

중고도서

검색중
로딩중

e-Book

검색중
서점 정가 할인가 마일리지 실질최저가 구매하기
aladin 27,200원 -10% 1360원 23,120원 >

책 이미지

구글 BERT의 정석

책 정보

· 제목 : 구글 BERT의 정석 (인공지능, 자연어 처리를 위한 BERT의 모든 것)
· 분류 : 국내도서 > 컴퓨터/모바일 > 인공지능
· ISBN : 9791162244852
· 쪽수 : 368쪽

책 소개

인간보다 언어를 더 잘 이해하고 구현하는 고성능 AI 언어 모델 BERT. 이 책은 자연어 응용 분야에서 상당한 성능 향상을 이뤄 주목받고 있는 BERT 모델을 기초부터 다양한 변형 모델, 응용 사례까지 한 권으로 담은 실무 지침서다.

목차

[PART I BERT 시작하기]

CHAPTER 1 트랜스포머 입문
1.1 트랜스포머 소개
1.2 트랜스포머의 인코더 이해하기
1.3 트랜스포머 디코더 이해하기
1.4 인코더와 디코더 결합
1.5 트랜스포머 학습
1.6 마치며
1.7 연습 문제
1.8 보충 자료

CHAPTER 2 BERT 이해하기
2.1 BERT 기본 개념
2.2 BERT의 동작 방식
2.3 BERT의 구조
2.4 BERT 사전 학습
2.5 하위 단위 토큰화 알고리즘
2.6 마치며
2.7 연습 문제
2.8 보충 자료

CHAPTER 3 BERT 활용하기
3.1 사전 학습된 BERT 모델 탐색
3.2 사전 학습된 BERT에서 임베딩을 추출하는 방법
3.3 BERT의 모든 인코더 레이어에서 임베딩을 추출하는 방법
3.4 다운스트림 태스크를 위한 BERT 파인 튜닝 방법
3.5 마치며
3.6 연습 문제
3.7 보충 자료

[PART II BERT 파생 모델]


CHAPTER 4 B ERT의 파생 모델 I: ALBERT, RoBERTa, ELECTRA, SpanBERT
4.1 ALBERT
4.2 ALBERT에서 임베딩 추출
4.3 RoBERTa
4.4 ELECTRA 이해하기
4.5 SpanBERT로 스팬 예측
4.6 마치며
4.7 연습 문제
4.8 보충 자료

CHAPTER 5 BERT 파생 모델 II: 지식 증류 기반
5.1 지식 증류 소개
5.2 DistilBERT: BERT의 지식 증류 버전
5.3 TinyBERT 소개
5.4 BERT에서 신경망으로 지식 전달
5.5 마치며
5.6 연습 문제
5.7 보충 자료

[PART III BERT 적용하기]


CHAPTER 6 텍스트 요약을 위한 BERTSUM 탐색
6.1 텍스트 요약
6.2 텍스트 요약에 맞춘 BERT 파인 튜닝
6.3 ROUGE 평가 지표 이해하기
6.4 BERTSUM 모델의 성능
6.5 BERTSUM 모델 학습
6.6 마치며
6.7 연습 문제
6.8 보충 자료

CHAPTER 7 다른 언어에 BERT 적용하기
7.1 M-BERT 이해하기
7.2 M-BERT는 다국어 표현이 어떻게 가능한가?
7.3 XLM
7.4 XLM-R 이해하기
7.5 언어별 BERT
7.6 마치며
7.7 연습 문제
7.8 보충 자료

CHAPTER 8 sentence-BERT 및 domain-BERT 살펴보기
8.1 sentence-BERT로 문장 표현 배우기
8.2 sentence-transformers 라이브러리 탐색
8.3 지식 증류를 이용한 다국어 임베딩 학습
8.4 domain-BERT
8.5 마치며
8.6 연습 문제
8.7 보충 자료

CHAPTER 9 VideoBERT, BART
9.1 VideoBERT로 언어 및 비디오 표현 학습
9.2 BART 이해하기
9.3 BERT 라이브러리 탐색
9.4 마치며
9.5 연습 문제
9.6 보충 자료

CHAPTER 10 한국어 언어 모델: KoBERT, KoGPT2, KoBART
10.1 KoBERT
10.2 KoGPT2
10.3 KoBART

저자소개

수다르산 라비찬디란 (지은이)    정보 더보기
데이터 과학자이자 연구원이자 저명한 저술가. 안나 대학교에서 정보 기술 학사 학위를 취득했다. 연구 분야는 자연어 처리 및 컴퓨터 비전, 딥러닝 및 강화학습의 실제 구현에 중점을 두고 있다. 오 픈 소스 기여자이며 스택 오버플로 질문에 답하는 것을 좋아한다. 또한 베스트셀러 『Hands-On Reinforcement Learning with Python』(Manning, 2018)을 집필했다.
펼치기
전희원 (옮긴이)    정보 더보기
NLP 리서치 엔지니어. 컴퓨터 공학 박사과정을 수료했다. 최초의 한국어 오픈 소스 언어 모델 KoBERT, KoGPT2, KoBART를 개발하고 깃허브에 공개했다. 대용량 언어 모델 학습과 이를 기 반으로 한 다양한 주제에 관심이 많다. AWS ML Hero, DMLC 회원이며 기술의 민주화를 위한 오픈 소스 개발 프로젝트에 관심이 많다. 유명 오픈 소스로는 PyKoSpacing, KoNLP 등이 있다.
펼치기
정승환 (옮긴이)    정보 더보기
NLP 리서치 엔지니어. 산업공학 석사과정을 졸업했다. 데이터 과학자로 활동하면서 제조, 유통, 통 신 등 다양한 도메인에 대한 데이터 분석 및 ML 모델 개발 업무를 수행했다. 이후 딥러닝에 관심을 두고 AutoML 솔루션을 개발해 사내 시스템에 적용했다. 최근에는 한국어 KoBERT, KoBART를 활용한 챗봇 개발 과제에 참여했다. 또한 언어 모델을 활용한 문서 요약 과제에 관심을 두고 언어 모 델을 활용한 의미 있는 기술과 제품을 개발하는 데 노력하고 있다.
펼치기
김형준 (옮긴이)    정보 더보기
NLP 리서치 엔지니어. 인지과학 석사과정을 졸업했다. 커리어 초창기 머신러닝 분석 솔루션을 개 발해 자동차, 금융권 등 열 군데 이상의 대기업에 성공적으로 적용했다. 이후 자연어 처리에 관심이 많아 한국어 KoGPT와 KoBART 등의 딥러닝을 활용한 챗봇 개발과 텍스트 요약 과제를 수행했다. 세계적인 DSTC8(The 8th Dialog System Technology Challenge) 대회에서 2위를 했다. 한국어 RoBERTa를 개발하고 오픈 소스 언어 모델 사전 학습 플랫폼(https://github.com/lassl/lassl)에 공개했다.
펼치기

책속에서



이 포스팅은 쿠팡 파트너스 활동의 일환으로,
이에 따른 일정액의 수수료를 제공받습니다.
도서 DB 제공 : 알라딘 서점(www.aladin.co.kr)
최근 본 책