책 이미지

책 정보
· 분류 : 국내도서 > 컴퓨터/모바일 > 인공지능
· ISBN : 9791199401488
· 쪽수 : 157쪽
· 출판일 : 2025-08-19
목차
요즘 AI 개발은 SLM: 작고 빠른 AI, 소형 언어 모델 완전 정복
책의 서문: 왜 지금 SLM(소형 언어 모델)인가?
Part 1: SLM, 새로운 시대의 시작
1장: 거대 언어 모델(LLM)의 시대, 그리고 SLM의 등장
1.1. 세상을 바꾼 LLM: ChatGPT, GPT-4, 그리고 그 이후
1.2. LLM의 그림자: 높은 비용, 느린 추론, 통제의 어려움
1.3. 대안의 부상, SLM(Small Language Model)이란 무엇인가?
1.4. LLM vs SLM: 무엇을, 언제, 어떻게 선택해야 하는가?
1.5. 대표적인 SLM 모델 둘러보기
2장: SLM의 작동 원리: LLM과 무엇이 다른가?
2.1. 트랜스포머 아키텍처 핵심 원리 다시보기
2.2. 작게 만드는 기술: 모델 아키텍처의 혁신
2.3. 효율적인 학습: 고품질 데이터의 중요성
2.4. 토큰, 임베딩, 어텐션: SLM 내부 동작 흐름 이해하기
Part 2: SLM, 직접 만져보기 (기초 사용법)
3장: 나의 첫 SLM: 개발 환경 구축하기
3.1. 필수 준비물: Python, Jupyter Notebook/VS Code
3.2. 핵심 라이브러리 설치: PyTorch, Transformers, Accelerate
3.3. GPU 사용을 위한 CUDA 설정 (NVIDIA GPU 사용자)
3.4. 클라우드/코랩(Colab) 환경으로 쉽게 시작하기
3.5. [실습] "Hello, SLM!" - 모델 로드하고 첫 텍스트 생성하기
4장: 허깅페이스(Hugging Face)와 SLM 생태계 완전 정복
4.1. 허깅페이스: AI 개발자를 위한 놀이터
4.2. Model Hub: 원하는 SLM 모델 찾고 비교하기
4.3. Datasets: 파인튜닝을 위한 데이터셋 탐색하기
4.4. Transformers 라이브러리의 핵심, pipeline 활용법
4.5. [실습] pipeline으로 5줄 만에 텍스트 요약, 질문 답변 봇 만들기
Part 3: SLM, 나만의 모델로 만들기 (튜닝)
5장: 파인튜닝(Fine-tuning)의 모든 것: SLM에 내 데이터 주입하기
5.1. 파인튜닝이란? 왜 필요한가? (범용 모델 vs 특화 모델)
5.2. 데이터 준비: 고품질의 Instruction 데이터셋 만들기
5.3. 전체 파인튜닝(Full Fine-tuning): 강력하지만 무거운 방법
5.4. [실습] 특정 말투를 흉내 내는 나만의 챗봇 만들기 (Full Fine-tuning)
6장: 경량화 튜닝 기법(PEFT)으로 똑똑하게 튜닝하기
6.1. PEFT(Parameter-Efficient Fine-Tuning)의 필요성
6.2. LoRA(Low-Rank Adaptation): 가장 인기 있는 경량화 튜닝 기법
6.3. LoRA의 작동 원리 쉽게 이해하기
6.4. [실습] LoRA를 이용해 저사양 GPU로 파인튜닝하기
6.5. QLoRA: 더 낮은 메모리로 튜닝하는 방법
7장: 모델 경량화(Quantization): 더 가볍고 빠르게 만들기
7.1. 양자화(Quantization)란? (FP16, INT8, INT4)
7.2. 왜 양자화가 필요한가?: 메모리 절약과 추론 속도 향상
7.3. bitsandbytes 라이브러리를 활용한 양자화 로딩
7.4. [실습] 4-bit 양자화로 SLM을 로드하여 리소스 사용량 비교하기
Part 4: SLM, 실전 애플리케이션 개발과 배포
8장: RAG(검색 증강 생성)와 SLM의 시너지
8.1. 언어 모델의 한계: 환각(Hallucination)과 최신 정보 부족
8.2. RAG(Retrieval-Augmented Generation)란 무엇인가?
8.3. 벡터 DB와 임베딩 모델의 역할 (feat. FAISS, ChromaDB)
8.4. [실습] SLM과 RAG를 결합하여 내 문서 기반의 Q&A 챗봇 만들기
9장: SLM 애플리케이션 배포 전략
9.1. 배포 시나리오별 최적의 전략
9.2. 로컬/온프레미스 배포: Ollama, vLLM 활용하기
9.3. 클라우드 서버 배포: FastAPI로 나만의 API 서버 구축하기
9.4. 엣지 디바이스 배포: Llama.cpp와 MLX 프레임워크 소개
9.5. [실습] FastAPI를 이용해 파인튜닝된 모델을 API로 서빙하기
10장: SLM의 책임감 있는 사용과 미래 전망
10.1. AI 윤리: 편향, 공정성, 투명성 문제
10.2. SLM과 데이터 프라이버시
10.3. SLM의 미래: 더 작고, 더 똑똑하고, 더 멀티모달하게
10.4. 오픈소스 커뮤니티와 함께 성장하기
부록
부록 A: 용어 정리
부록 B: 유용한 도구 및 라이브러리 목록
부록 C: 상황별 추천 SLM 모델