logo
logo
x
바코드검색
BOOKPRICE.co.kr
책, 도서 가격비교 사이트
바코드검색

인기 검색어

실시간 검색어

검색가능 서점

도서목록 제공

LLM 프로덕션 엔지니어링

LLM 프로덕션 엔지니어링

(프롬프트, RAG, 파인튜닝으로 설계하는 신뢰성 높은 생성형 AI 시스템 구축 전략)

루이-프랑수아 부샤르, 루이 피터스 (지은이), 김태헌 (옮긴이)
제이펍
36,000원

일반도서

검색중
서점 할인가 할인률 배송비 혜택/추가 실질최저가 구매하기
32,400원 -10% 0원
1,800원
30,600원 >
32,400원 -10% 0원
0원
32,400원 >
yes24 로딩중
교보문고 로딩중
11st 로딩중
영풍문고 로딩중
쿠팡 로딩중
쿠팡로켓 로딩중
G마켓 로딩중
notice_icon 검색 결과 내에 다른 책이 포함되어 있을 수 있습니다.

중고도서

검색중
서점 유형 등록개수 최저가 구매하기
로딩중

eBook

검색중
서점 정가 할인가 마일리지 실질최저가 구매하기
로딩중

책 이미지

LLM 프로덕션 엔지니어링
eBook 미리보기

책 정보

· 제목 : LLM 프로덕션 엔지니어링 (프롬프트, RAG, 파인튜닝으로 설계하는 신뢰성 높은 생성형 AI 시스템 구축 전략)
· 분류 : 국내도서 > 컴퓨터/모바일 > 인공지능
· ISBN : 9791194587347
· 쪽수 : 516쪽
· 출판일 : 2025-09-11

책 소개

생성형 AI의 핵심 개념부터 시스템 구축과 배포까지의 흐름을 체계적으로 안내하며, 트랜스포머 기반 모델의 작동 원리, 다양한 프롬프트 전략, RAG 설계, 파인튜닝 기법, 랭체인과 라마인덱스 등의 프레임워크 활용까지 폭넓게 다룬다.

목차

지은이·옮긴이 소개 xi
옮긴이 머리말 xiii
추천의 글 xv
베타리더 후기 xvii
추천사 xix
시작하며 xxii
감사의 글 xxvii
이 책에 대하여 xxviii

CHAPTER 1 LLM 소개 1
1.1 언어 모델의 짧은 역사 1
1.2 LLM이란 무엇인가? 2
1.3 LLM의 기본 구성 요소 3
1.4 실습 ❶ LLM을 활용한 번역(GPT-3.5 API) 19
1.5 실습 ❷ 퓨샷 학습을 통한 LLM 출력 제어 20
1.6 요약 22

CHAPTER 2 LLM 아키텍처와 환경 23
2.1 트랜스포머 이해하기 23
2.2 트랜스포머 모델의 설계와 선택 33
2.3 트랜스포머 아키텍처 최적화 기법 41
2.4 GPT 아키텍처 43
2.5 대형 멀티모달 모델 소개 46
2.6 상용 모델 vs. 공개 모델 vs. 오픈소스 언어 모델 52
2.7 LLM의 응용 및 사용 사례 59
2.8 요약 67

CHAPTER 3 LLM의 실제 응용 69
3.1 환각과 편향 이해하기 69
3.2 LLM 출력에서 환각을 줄이는 방법 71
3.3 LLM 성능 평가 79
3.4 요약 84

CHAPTER 4 프롬프트 엔지니어링 소개 86
4.1 프롬프팅과 프롬프트 엔지니어링 86
4.2 프롬프트 테크닉 91
4.3 프롬프트 인젝션과 보안 97
4.4 요약 100

CHAPTER 5 RAG 102
5.1 왜 RAG인가? 102
5.2 밑바닥부터 시작하는 기본 RAG 파이프라인 구축 106
5.3 요약 119

CHAPTER 6 LangChain 및 LlamaIndex 소개 120
6.1 LLM 프레임워크 120
6.2 LangChain 소개 121
6.3 실습 ❶ LangChain을 사용한 LLM 기반 애플리케이션 구축 126
6.4 실습 ❷ 뉴스 기사 요약기 구축 130
6.5 LlamaIndex 소개 137
6.6 LangChain vs. LlamaIndex vs. OpenAI Assistant 145
6.7 요약 147

CHAPTER 7 LangChain을 사용한 프롬프트 작성 148
7.1 LangChain 프롬프트 템플릿이란 148
7.2 퓨샷 프롬프트와 예시 선택기 156
7.3 LangChain에서 체인이란 163
7.4 실습 ❶ 출력 파서를 사용한 출력 관리 171
7.5 실습 ❷ 뉴스 기사 요약기 개선 183
7.6 실습 ❸ 텍스트 데이터를 활용한 지식 그래프 생성: 숨겨진 연결 고리 발견하기 191
7.7 요약 197

CHAPTER 8 인덱스, 검색기, 그리고 데이터 준비 199
8.1 LangChain의 인덱스와 검색기 199
8.2 데이터 수집 205
8.3 텍스트 분할기 209
8.4 유사도 검색과 벡터 임베딩 219
8.5 실습 ❶ 고객 지원 Q&A 챗봇 225
8.6 실습 ❷ Whisper와 LangChain을 이용한 유튜브 비디오 요약기 232
8.7 실습 ❸ 지식 베이스를 위한 음성 비서 243
8.8 실습 ❹ 자기 비판 체인을 사용한 원치 않는 출력 방지 255
8.9 실습 ❺ 고객 서비스 챗봇에서 부적절한 출력 방지 260
8.10 요약 265

CHAPTER 9 고급 RAG 268
9.1 개념 증명에서 제품으로: RAG 시스템의 도전 과제 268
9.2 고급 RAG 기법과 LlamaIndex 269
9.3 RAG의 지표 및 평가 284
9.4 LangChain, LangSmith 및 LangChain Hub 299
9.5 요약 304

CHAPTER 10 에이전트 306
10.1 에이전트: 추론 엔진으로서의 대형 모델 306
10.2 AutoGPT와 BabyAGI 한 눈에 보기 312
10.3 LangChain의 에이전트 시뮬레이션 프로젝트 327
10.4 실습 ❶ 분석 보고서 작성 에이전트 구축 332
10.5 실습 ❷ LlamaIndex를 사용한 데이터베이스 쿼리 및 요약 340
10.6 실습 ❸ OpenAI 어시스턴트를 활용한 에이전트 구축 350
10.7 실습 ❹ LangChain OpenGPTs 354
10.8 실습 ❺ 멀티모달 금융 문서 분석기로 PDF 파일 분석하기 357
10.9 요약 371

CHAPTER 11 파인튜닝 372
11.1 파인튜닝에 대한 이해 372
11.2 LoRA 373
11.3 실습 ❶ LoRA를 활용한 SFT 376
11.4 실습 ❷ SFT 및 LoRA를 활용한 금융 감정 분석 389
11.5 실습 ❸ 의료 데이터를 활용한 Cohere LLM 파인튜닝 398
11.6 RLHF 408
11.7 실습 ❹ RLHF를 통한 LLM 성능 향상 411
11.8 요약 433

CHAPTER 12 배포 및 최적화 435
12.1 모델 증류와 교사-학생 모델 435
12.2 LLM 배포 최적화: 양자화, 가지치기, 추측적 디코딩 441
12.3 실습: GCP에서 CPU로 양자화된 LLM 배포하기 452
12.4 오픈소스 LLM을 클라우드 환경에 배포하기 461
12.5 요약 463

나가며 465
용어집 468
찾아보기 472

저자소개

루이-프랑수아 부샤르 (지은이)    정보 더보기
2019년 시스템 엔지니어링 학위 과정 중 AI에 입문했다. 이모지 이미지 분류 대회 우승과 발표를 계기로 연구와 발표에 흥미를 느꼈으며, 2020년 AI 석사 과정 진학 후 스타트업에서 AI 팀 리더로 활동했다. 컴퓨터 비전 프로젝트를 주도하는 한편, 유튜브를 통해 AI 개념을 쉽게 전달하고자 했다. 2022년 밀라에서 의료 AI 박사 과정을 시작했으며, 2024년 실용적 문제 해결에 집중하기 위해 과정을 중단했다. 현재는 Towards AI 공동 창립자이자 교육자로서 AI의 실질적 활용에 주력하고 있다.
펼치기
루이 피터스 (지은이)    정보 더보기
SF 영화와 소설에서 영감을 받아 AI에 관심을 갖게 되었으며, 2012년 AlexNet을 계기로 머신러닝의 발전을 본격적으로 추적하기 시작했다. 2018년에는 AI의 잠재력을 확신하고 커리어를 전환했다. 현재는 Towards AI의 CEO이자 공동 창립자로, 누구나 쉽게 AI를 이해하고 활용할 수 있도록 돕는 데 집중하고 있다. AI 관련 콘텐츠 제작과 강의 외에도 12만 명 이상의 구독자에게 전달되는 AI 뉴스레터를 매주 발행하고 있다. 임페리얼 칼리지 런던에서 물리학을 전공했으며, JP모건 체이스에서 투자 리서치 업무를 수행한 경력이 있다. 그는 AI가 사회와 경제에 미치는 변화와 이를 현실에 적용하는 기술 혁신에 깊은 관심을 가지고 있다.
펼치기
김태헌 (옮긴이)    정보 더보기
《Financial AI in Practice》(Manning, 2026 출간 예정), 《금융 AI의 이해》(제이펍, 2024), 《AI 소사이어티》(미래의창, 2022)(2022년 세종도서 교양부문 선정) 등 금융과 AI를 주제로 한 다수의 저서를 집필했다. 베이징 대학을 졸업한 후 캘리포니아 대학교 샌디에이고(UCSD)에서 국제경제 석사 학위를 받았으며, 현재 이커머스 기업의 핀테크 조직에서 수석 데이터 과학자 겸 머신러닝 알고리즘 엔지니어로 근무하고 있다. 아주대학교 인공지능대학원 겸임교수이자 세계 최대 데이터 과학 커뮤니티 캐글(Kaggle)의 그랜드 마스터로서 실무와 연구를 잇는 활동을 이어가고 있다.
펼치기

책속에서

GPT 아키텍처는 다양한 목적에 맞게 여러 버전이 존재한다. 이후 장에서 프로덕션 환경에 더 적합한 다른 라이브러리들을 다룰 예정이지만, 여기서는 안드레이 카르파트히가 개발한 OpenAI의 GPT-2 모델의 간소화 버전, minGPT를 소개한다. minGPT는 저장소에서 직접 구현하고 실험해볼 수 있는 가벼운 버전의 GPT 모델이다. / minGPT는 GPT 구조를 간단히 설명하기 위해 개발된 교육용 도구로, 약 300줄의 코드로 축약되었으며 파이토치 라이브러리를 사용한다. 단순한 구조 덕분에 GPT 계열 모델의 내부 작동 방식을 깊이 이해하는 데 유용하며, 코드에 각 과정에 대한 명확한 설명이 포함되어 있어 학습에 도움이 된다.


ICL(문맥 학습, in-context learning)은 프롬프트에 예제나 시연을 포함시켜 모델이 학습하는 접근 방식이다. 퓨샷 프롬프팅(few-shot prompting)은 문맥 학습의 하위 집합으로, 모델에 관련된 예제나 시연의 작은 집합을 제공한다. 이 전략은 모델이 일반화하고 더 복잡한 작업에서 성능을 향상시키는 데 도움을 준다. 퓨샷 프롬프팅은 언어 모델이 소수의 샘플로부터 학습할 수 있게 한다. 이 적응력 덕분에 모델은 소수의 훈련 샘플만으로 다양한 작업을 처리할 수 있다. / 제로숏 프롬프팅에서는 모델이 완전히 새로운 작업에 대해 출력을 생성하지만, 퓨샷 프롬프팅은 문맥 내 예제를 활용해 성능을 향상시킨다. 이 기법에서 프롬프트는 종종 여러 샘플이나 입력과 그에 따른 답변으로 구성된다. 언어 모델은 이러한 예제들로부터 학습하고 유사한 질문에 답변하는 데 이를 적용한다.


RAG 파이프라인 설정의 마지막 단계는 프롬프트를 준비해 LLM이 내재된 지식에 의존하지 않고 검색된 정보를 활용하도록 유도하는 것이다. 이 단계에서 모델은 편집자의 역할을 하며, 주어진 정보를 검토하고 프롬프트에 적합하게 답변을 정리하거나 생성한다. 마치 변호사가 모든 답변을 암기하고 있지 않을 때 질문에 답하기 위해 문서, 책, 데이터베이스를 찾아보고 정보를 ‘소화’해 답변을 제시하는 것과 유사하다. 변호사처럼 LLM이 주어진 리소스를 참조하게 해 오류(환각)를 줄이고자 하는 경우가 많다. / 이 작업을 위해 system_prompt와 user_prompt 두 가지 인수를 조정해야 한다. system_prompt의 주요 변경 사항은 모델이 제공된 특정 청크 정보를 이용해 질문에 답하도록 지시하는 것이다. user_prompt는 모델이 〈START_OF_CONTEXT〉와 〈END_OF_CONTEXT〉 태그 사이에 제공된 데이터만을 참조해 답변하도록 신호를 보낸다. 여기서 .join() 메서드를 사용해 검색된 청크들을 하나의 긴 문자열로 연결하고, .format() 함수를 통해 prompt 변수의 첫 번째와 두 번째 { } 자리 표시자를 각각 결합된 콘텍스트와 사용자의 질문으로 대체한다.


이 포스팅은 쿠팡 파트너스 활동의 일환으로,
이에 따른 일정액의 수수료를 제공받습니다.
이 포스팅은 제휴마케팅이 포함된 광고로 커미션을 지급 받습니다.
도서 DB 제공 : 알라딘 서점(www.aladin.co.kr)
최근 본 책