logo
logo
x
바코드검색
BOOKPRICE.co.kr
책, 도서 가격비교 사이트
바코드검색

인기 검색어

실시간 검색어

검색가능 서점

도서목록 제공

요즘 AI 개발은 SLM

요즘 AI 개발은 SLM

(작고 빠른 AI, 소형 언어 모델 완전 정복)

marku (지은이)
콩콩 컴퍼니
18,900원

일반도서

검색중
서점 할인가 할인률 배송비 혜택/추가 실질최저가 구매하기
18,900원 -0% 0원
0원
18,900원 >
yes24 로딩중
교보문고 로딩중
11st 로딩중
영풍문고 로딩중
쿠팡 로딩중
쿠팡로켓 로딩중
G마켓 로딩중
notice_icon 검색 결과 내에 다른 책이 포함되어 있을 수 있습니다.

중고도서

검색중
서점 유형 등록개수 최저가 구매하기
로딩중

eBook

검색중
서점 정가 할인가 마일리지 실질최저가 구매하기
로딩중

책 이미지

요즘 AI 개발은 SLM
eBook 미리보기

책 정보

· 제목 : 요즘 AI 개발은 SLM (작고 빠른 AI, 소형 언어 모델 완전 정복)
· 분류 : 국내도서 > 컴퓨터/모바일 > 인공지능
· ISBN : 9791199401488
· 쪽수 : 157쪽
· 출판일 : 2025-08-19

목차

요즘 AI 개발은 SLM: 작고 빠른 AI, 소형 언어 모델 완전 정복
책의 서문: 왜 지금 SLM(소형 언어 모델)인가?
Part 1: SLM, 새로운 시대의 시작
1장: 거대 언어 모델(LLM)의 시대, 그리고 SLM의 등장
1.1. 세상을 바꾼 LLM: ChatGPT, GPT-4, 그리고 그 이후
1.2. LLM의 그림자: 높은 비용, 느린 추론, 통제의 어려움
1.3. 대안의 부상, SLM(Small Language Model)이란 무엇인가?
1.4. LLM vs SLM: 무엇을, 언제, 어떻게 선택해야 하는가?
1.5. 대표적인 SLM 모델 둘러보기
2장: SLM의 작동 원리: LLM과 무엇이 다른가?
2.1. 트랜스포머 아키텍처 핵심 원리 다시보기
2.2. 작게 만드는 기술: 모델 아키텍처의 혁신
2.3. 효율적인 학습: 고품질 데이터의 중요성
2.4. 토큰, 임베딩, 어텐션: SLM 내부 동작 흐름 이해하기
Part 2: SLM, 직접 만져보기 (기초 사용법)
3장: 나의 첫 SLM: 개발 환경 구축하기
3.1. 필수 준비물: Python, Jupyter Notebook/VS Code
3.2. 핵심 라이브러리 설치: PyTorch, Transformers, Accelerate
3.3. GPU 사용을 위한 CUDA 설정 (NVIDIA GPU 사용자)
3.4. 클라우드/코랩(Colab) 환경으로 쉽게 시작하기
3.5. [실습] "Hello, SLM!" - 모델 로드하고 첫 텍스트 생성하기
4장: 허깅페이스(Hugging Face)와 SLM 생태계 완전 정복
4.1. 허깅페이스: AI 개발자를 위한 놀이터
4.2. Model Hub: 원하는 SLM 모델 찾고 비교하기
4.3. Datasets: 파인튜닝을 위한 데이터셋 탐색하기
4.4. Transformers 라이브러리의 핵심, pipeline 활용법
4.5. [실습] pipeline으로 5줄 만에 텍스트 요약, 질문 답변 봇 만들기
Part 3: SLM, 나만의 모델로 만들기 (튜닝)
5장: 파인튜닝(Fine-tuning)의 모든 것: SLM에 내 데이터 주입하기
5.1. 파인튜닝이란? 왜 필요한가? (범용 모델 vs 특화 모델)
5.2. 데이터 준비: 고품질의 Instruction 데이터셋 만들기
5.3. 전체 파인튜닝(Full Fine-tuning): 강력하지만 무거운 방법
5.4. [실습] 특정 말투를 흉내 내는 나만의 챗봇 만들기 (Full Fine-tuning)
6장: 경량화 튜닝 기법(PEFT)으로 똑똑하게 튜닝하기
6.1. PEFT(Parameter-Efficient Fine-Tuning)의 필요성
6.2. LoRA(Low-Rank Adaptation): 가장 인기 있는 경량화 튜닝 기법
6.3. LoRA의 작동 원리 쉽게 이해하기
6.4. [실습] LoRA를 이용해 저사양 GPU로 파인튜닝하기
6.5. QLoRA: 더 낮은 메모리로 튜닝하는 방법
7장: 모델 경량화(Quantization): 더 가볍고 빠르게 만들기
7.1. 양자화(Quantization)란? (FP16, INT8, INT4)
7.2. 왜 양자화가 필요한가?: 메모리 절약과 추론 속도 향상
7.3. bitsandbytes 라이브러리를 활용한 양자화 로딩
7.4. [실습] 4-bit 양자화로 SLM을 로드하여 리소스 사용량 비교하기
Part 4: SLM, 실전 애플리케이션 개발과 배포
8장: RAG(검색 증강 생성)와 SLM의 시너지
8.1. 언어 모델의 한계: 환각(Hallucination)과 최신 정보 부족
8.2. RAG(Retrieval-Augmented Generation)란 무엇인가?
8.3. 벡터 DB와 임베딩 모델의 역할 (feat. FAISS, ChromaDB)
8.4. [실습] SLM과 RAG를 결합하여 내 문서 기반의 Q&A 챗봇 만들기
9장: SLM 애플리케이션 배포 전략
9.1. 배포 시나리오별 최적의 전략
9.2. 로컬/온프레미스 배포: Ollama, vLLM 활용하기
9.3. 클라우드 서버 배포: FastAPI로 나만의 API 서버 구축하기
9.4. 엣지 디바이스 배포: Llama.cpp와 MLX 프레임워크 소개
9.5. [실습] FastAPI를 이용해 파인튜닝된 모델을 API로 서빙하기
10장: SLM의 책임감 있는 사용과 미래 전망
10.1. AI 윤리: 편향, 공정성, 투명성 문제
10.2. SLM과 데이터 프라이버시
10.3. SLM의 미래: 더 작고, 더 똑똑하고, 더 멀티모달하게
10.4. 오픈소스 커뮤니티와 함께 성장하기
부록
부록 A: 용어 정리
부록 B: 유용한 도구 및 라이브러리 목록
부록 C: 상황별 추천 SLM 모델

저자소개

추천도서

이 포스팅은 쿠팡 파트너스 활동의 일환으로,
이에 따른 일정액의 수수료를 제공받습니다.
이 포스팅은 제휴마케팅이 포함된 광고로 커미션을 지급 받습니다.
도서 DB 제공 : 알라딘 서점(www.aladin.co.kr)
최근 본 책