logo
logo
x
바코드검색
BOOKPRICE.co.kr
책, 도서 가격비교 사이트
바코드검색

인기 검색어

실시간 검색어

검색가능 서점

도서목록 제공

LLM 인 프로덕션

LLM 인 프로덕션

(대규모 언어 모델의 성공적인 제품화 전략)

크리스토퍼 브루소, 매슈 샤프 (지은이), 307번역랩, 류광 (옮긴이)
위키북스
35,000원

일반도서

검색중
서점 할인가 할인률 배송비 혜택/추가 실질최저가 구매하기
31,500원 -10% 0원
1,750원
29,750원 >
yes24 로딩중
교보문고 로딩중
11st 로딩중
영풍문고 로딩중
쿠팡 로딩중
쿠팡로켓 로딩중
G마켓 로딩중
notice_icon 검색 결과 내에 다른 책이 포함되어 있을 수 있습니다.

중고도서

검색중
서점 유형 등록개수 최저가 구매하기
로딩중

eBook

검색중
서점 정가 할인가 마일리지 실질최저가 구매하기
로딩중

책 이미지

LLM 인 프로덕션
eBook 미리보기

책 정보

· 제목 : LLM 인 프로덕션 (대규모 언어 모델의 성공적인 제품화 전략)
· 분류 : 국내도서 > 컴퓨터/모바일 > 인공지능
· ISBN : 9791158396091
· 쪽수 : 556쪽
· 출판일 : 2025-06-18

책 소개

LLM의 작동 원리, LLM과의 상호작용 방식, 애플리케이션과 LLM의 통합 방법을 풍부한 예제와 함께 명확하게 설명한다. 기존 소프트웨어나 머신러닝(ML)과 비교해 LLM이 무엇이 다른지 이해하고, 연구실을 벗어나 실무에서 LLM을 다룰 때의 모범관행들을 익힐 수 있다.
★ 이 책에서 다루는 내용 ★

◎ LLM의 기본 개념과 기반 기술
◎ 사전 훈련된 LLM을 사용할지, 직접 구축할지 평가하는 방법
◎ LLM의 요구사항을 처리할 수 있도록 ML 플랫폼을 효율적으로 확장하는 방법
◎ LLM의 기초(foundation) 모델을 훈련하고 기존 LLM을 미세조정하는 방법
◎ PEFT와 LoRA 같은 복잡한 아키텍처를 활용해 클라우드와 엣지 기기에 LLM을 배포하는 방법
◎ LLM의 강점을 최대한 활용하면서도 단점을 보완하는 애플리케이션 구축 방법

《LLM 인 프로덕션》은 ML옵스를 활용해서 LLM을 프로덕션에 원활하게 적용하는 데 필요한 핵심적인 통찰을 제공한다. LLM 훈련에 적합한 데이터셋을 확보하는 방법부터 플랫폼 구축, 모델의 거대한 크기에 따른 문제의 해결까지 실질적인 가이드를 담았다. 또한 프롬프트 엔지니어링, 모델 재훈련(retraining), 부하 테스트(load testing), 비용 관리, 보안 강화 등의 실용적인 팁과 기법도 다룬다.

목차

▣ 1장: 깨어난 단어들: LLM이 주목받는 이유
1.1 LLM이 가속하는 의사소통
1.2 LLM을 직접 구축할 것인가, 아니면 구매할 것인가
__1.2.1 구매: 잘 닦인 길
__1.2.2 자체 구축: 덜 다듬어진 길
__1.2.3 경고 한마디: 지금 당장 미래를 받아들여라
1.3 미신 타파
요약

▣ 2장: LLM의 이해: 언어 모델링 심층 탐구
2.1 언어 모델링
2.1.1 언어적 특징들
__2.1.2 기호학
__2.1.3 다국어 NLP
2.2 언어 모델링 기법들
__2.2.1 N-그램과 말뭉치 기반 기법
__2.2.2 베이즈 기법
__2.2.3 마르코프 연쇄
__2.2.4 연속 언어 모델링
__2.2.5 임베딩
__2.2.6 다층 퍼셉트론(MLP)
__2.2.7 순환 신경망(RNN)과 장단기 메모리(LSTM) 네트워크
__2.2.8 주의 메커니즘
2.3 "Attention Is All You Need"(필요한 것은 주의뿐이다)
__2.3.1 인코더
__2.3.2 디코더
__2.3.3 트랜스포머
2.4 아주 큰 트랜스포머 모델
요약

▣ 3장: LLM옵스: LLM을 위한 플랫폼 구축
3.1 LLM옵스의 소개
3.2 LLM의 운영에 따르는 난제들
__3.2.1 긴 다운로드 시간
__3.2.2 더 긴 배포 시간
__3.2.3 지연 시간
__3.2.4 GPU 관리
__3.2.5 텍스트 데이터의 특수성
__3.2.6 토큰 한계에 의한 병목현상
__3.2.7 환각으로 인한 혼란
__3.2.8 편향성과 윤리적 고려사항
__3.2.9 보안 우려사항
__3.2.10 비용 관리
3.3 LLM옵스의 핵심 요소
__3.3.1 압축
__3.3.2 분산 컴퓨팅
3.4 LLM옵스 인프라
__3.4.1 데이터 인프라
__3.4.2 실험 추적기
__3.4.3 모델 레지스트리
__3.4.4 특징 저장소
__3.4.5 벡터 데이터베이스
__3.4.6 모니터링 시스템
__3.4.7 GPU 지원 워크스테이션
__3.4.8 배포 서비스
요약

▣ 4장: LLM을 위한 데이터 엔지니어링: 성공을 위한 준비
4.1 기초로서의 모델
__4.1.1 GPT
__4.1.2 BLOOM
__4.1.3 라마
__4.1.4 위저드
__4.1.5 팰콘
__4.1.6 비쿠나
__4.1.7 돌리
__4.1.8 오픈챗
4.2 LLM 평가
__4.2.1 텍스트 평가를 위한 지표들
__4.2.2 업계 주요 벤치마크들
__4.2.3 책임 있는 AI 벤치마크들
__4.2.4 자체 벤치마크 개발
__4.2.5 코드 생성기의 평가
__4.2.6 모델 매개변수 평가
4.3 LLM을 위한 데이터
__4.3.1 알아야 할 데이터셋들
__4.3.2 데이터 정제와 준비
4.4 텍스트 처리
__4.4.1 토큰화
__4.4.2 임베딩
4.5 슬랙 데이터셋 준비
요약

▣ 5장: LLM의 훈련: 생성기를 만드는 방법
5.1 다중 GPU 환경
__5.1.1 환경 설정
__5.1.2 라이브러리
5.2 기본 훈련 기법
__5.2.1 밑바닥부터 훈련하기
__5.2.2 전이 학습(미세조정)
__5.2.3 프롬프팅
5.3 고급 훈련 기법들
__5.3.1 프롬프트 조정
__5.3.2 지식 증류를 활용한 미세조정
__5.3.3 RLHF(인간 피드백 기반 강화학습)
__5.3.4 전문가 혼합(MoE)
__5.3.5 LoRA와 PEFT
5.4 훈련 관련 팁과 트릭
__5.4.1 훈련 데이터 크기에 관한 참고사항
__5.4.2 효율적인 훈련
__5.4.3 극솟값의 함정
__5.4.4 초매개변수 조정 팁
__5.4.5 운영체제에 관한 참고사항
__5.4.6 활성화 함수 조언
요약

▣ 6장: LLM 서비스 만들기: 실제 가이드
6.1 LLM 서비스 만들기
__6.1.1 모델 컴파일
__6.1.2 LLM 저장 전략
__6.1.3 적응형 요청 배치 처리
__6.1.4 흐름 제어
__6.1.5 응답 스트리밍
__6.1.6 특징 저장소
__6.1.7 RAG(검색 증강 생성)
__6.1.8 LLM 서비스 라이브러리
6.2 인프라 구축
__6.2.1 클러스터 준비
__6.2.2 자동확장
__6.2.3 롤링 업데이트
__6.2.4 추론 그래프
__6.2.5 모니터링
6.3 프로덕션의 난제들
__6.3.1 모델 갱신 및 재훈련
__6.3.2 부하 테스트
__6.3.3 지연 시간 문제 해결
__6.3.4 자원 관리
__6.3.5 비용 엔지니어링
__6.3.6 보안
6.4 엣지 배포
요약

▣ 7장: 프롬프트 엔지니어링: LLM 조련사가 되려면
7.1 모델 프롬프팅
__7.1.1 퓨샷 프롬프팅
__7.1.2 원샷 프롬프팅
__7.1.3 제로샷 프롬프팅
7.2 프롬프트 엔지니어링의 기초
__7.2.1 프롬프트의 해부
__7.2.2 프롬프트 초매개변수들
__7.2.3 훈련 데이터 살펴보기
7.3 프롬프트 엔지니어링 도구
__7.3.1 랭체인
__7.3.2 가이던스
__7.3.3 DSPy
__7.3.4 다른 도구들도 있지만…
7.4 고급 프롬프트 엔지니어링 기법
__7.4.1 LLM에 도구 제공하기
__7.4.2 ReAct
요약

▣ 8장: LLM 애플리케이션: 상호작용 경험 구축
8.1 애플리케이션 만들기
__8.1.1 프런트엔드에서의 스트리밍
__8.1.2 대화 기록 유지
__8.1.3 챗봇 상호작용 기능
__8.1.4 토큰 카운터
__8.1.5 RAG 적용
8.2 엣지 애플리케이션
8.3 LLM 에이전트
요약

▣ 9장: LLM 프로젝트 만들기: 라마3의 재구현
9.1 메타의 라마 재구현
__9.1.1 토큰화 및 설정
__9.1.2 데이터셋 준비, 데이터 적재, 평가, 생성
__9.1.3 모델 아키텍처
9.2 간소화된 라마3
9.3 모델 개선
__9.3.1 양자화
__9.3.2 LoRA
__9.3.3 FSDP QLoRA 적용
9.4 허깅 페이스 스페이스에 모델 배포
요약

▣ 10장: 코딩 코파일럿 프로젝트 만들기: 실제로 도움이 될까?
10.1 예제 모델
10.2 데이터가 왕이다
__10.2.1 예제 벡터 DB
__10.2.2 예제 데이터셋
__10.2.3 RAG 적용
10.3 VS 코드 확장 프로그램 만들기
10.4 배운 교훈과 다음 단계
요약

▣ 11장: 라즈베리 파이에 LLM 배포하기: 얼마나 작게 만들 수 있을까?
11.1 라즈베리 파이 설정
__11.1.1 파이 이미저를 이용한 OS 이미지 준비
__11.1.2 파이에 연결하기
__11.1.3 소프트웨어 설치 및 갱신
11.2 모델 준비
11.3 모델 서빙
11.4 개선사항
__11.4.1 더 나은 인터페이스
__11.4.2 양자화 변경
__11.4.3 다중 모달 추가
__11.4.4 구글 코랩에서 모델 서빙
요약

▣ 12장: 프로덕션, 끊임없이 변화하는 풍경: 이제 시작일 뿐이다
12.1 전체적인 조망
12.2 LLM의 미래
__12.2.1 정부와 규제
__12.2.2 계속 커지는 LLM
__12.2.3 다중 모달 공간
__12.2.4 데이터셋
__12.2.5 환각 문제의 해결
__12.2.6 새로운 하드웨어
__12.2.7 에이전트의 유용성이 입증될 것이다
12.3 마무리 의견
요약

▣ 부록A: 간략한 언어학 역사
A.1 고대 언어학
A.2 중세 언어학
A.3 르네상스와 근현대 언어학
A.4 20세기 초 언어학
A.5 20세기 중반과 현대 언어학

▣ 부록B: RLHF(인간 피드백 기반 강화학습)

▣ 부록C: 다중 모달 잠재 공간

저자소개

크리스토퍼 브루소 (지은이)    정보 더보기
언어학 및 현지화 배경을 가진 JPMorganChase의 간부급 머신러닝 엔지니어(machine learning engineer, MLE)이다. 특히 국제적 초점을 맞춘 언어학적 정보에 기반한 NLP를 전문으로 하며, 스타트업은 물론이고 포천 500대 기업들에서도 성공적인 ML 및 데이터 제품 이니셔티브를 이끌었다.
펼치기
매슈 샤프 (지은이)    정보 더보기
데이터 과학자 출신의 엔지니어로, ML옵스 분야에 경험이 많은 기술 리더(tech leader)이다. 스타트업과 최고 수준의 기술 회사 모두에서 많은 성공적인 데이터 이니셔티브를 이끌었다. 매슈는 프로덕션 환경이 어떤 모습이든 상관없이 프로덕션에서 머신러닝 모델을 배포, 관리 및 확장하는 것을 전문으로 한다.
펼치기
류광 (옮긴이)    정보 더보기
커누스 교수의 《컴퓨터 프로그래밍의 예술》 시리즈를 비롯해 90여 권의 다양한 IT 전문서를 번역한 전문 번역가다. 이 책과 연관된 번역서로는 《파이썬으로 배우는 자연어 처리 인 액션》 《마스터링 트랜스포머》 《실전! RAG 기반 생성형 AI 개발》 《LLM 인 프로덕션》 등이 있다. 홈페이지 '류광의 번역 이야기'(https://occamsrazr.net)와 IT 및 게임 개발 정보 공유 사이트 GpgStudy(https://gpgstudy.com)를 운영한다.
펼치기
307번역랩 (옮긴이)    정보 더보기
전문 번역가의 효율적인 번역 작업을 위해 초벌 번역 및 자료 정리 서비스를 제공하는 번역 엔지니어 집단이다. 급변하는 IT 분야의 가치 있는 외국 서적을 발 빠르게 국내 독자에게 전달하는 데 보람을 느낀다.
펼치기

책속에서



이 포스팅은 쿠팡 파트너스 활동의 일환으로,
이에 따른 일정액의 수수료를 제공받습니다.
이 포스팅은 제휴마케팅이 포함된 광고로 커미션을 지급 받습니다.
도서 DB 제공 : 알라딘 서점(www.aladin.co.kr)
최근 본 책