책 이미지
![[큰글자책] 저전력 AI 반도체](/img_thumb2/9791173079467.jpg)
책 정보
· 분류 : 국내도서 > 컴퓨터/모바일 > 인공지능
· ISBN : 9791173079467
· 쪽수 : 123쪽
· 출판일 : 2025-03-31
책 소개
목차
AI 반도체와 에너지 효율
01 AI와 반도체의 전력 소비
02 저전력 반도체 설계 원리 이해
03 저전력 AI 하드웨어 가속기
04 메모리와 데이터 이동의 전력 최적화
05 AI 모델 경량화의 저전력 접근
06 엣지 AI와 사물인터넷을 위한 저전력 반도체
07 스마트폰의 두뇌: 저전력 AI를 실현하는 AP
08 저전력 반도체를 위한 제조 공정 혁신
09 전력 AI 반도체를 위한 미래 기술
10 재생에너지와 친환경 AI 반도체
저자소개
책속에서
AI 모델의 학습은 매우 에너지 집약적이며, 전통적인 데이터센터 활동보다 훨씬 많은 전력을 소비한다. 특히 대규모 언어 모델의 학습은 복잡한 신경망(Neural Networks) 구조와 대규모 데이터 세트를 반복적으로 처리해야 하기 때문에 엄청난 양의 에너지가 필요하다. 예를 들어, GPT?3 모델의 학습에 약 1300메가와트시(MWh)의 전기를 소비하는 것으로 추정되는데, 이는 미국의 평균적인 가정 130가구에서 1년 동안 사용할 수 있는 양이다.
- 01_“AI와 반도체의 전력 소비” 중에서
최근 텍스트, 이미지, 음성 등 다중양상(Multimodal) 데이터를 동시에 처리하는 생성형 AI 모델이 주목받으면서, 연산 요구량이 폭증하고 있다. 이 같은 추세는 연산량 증가로만 끝나는 것이 아니라, AI 모델 업데이트 주기 역시 짧아져야 하므로 더욱 빠른 학습과 추론 성능이 필요하다. 따라서 전용 AI 하드웨어 가속기에 대한 관심이 자연스럽게 커졌다. 이러한 상황에서 신경망(Neural Networks) 연산, 특히 행렬 곱셈과 합성곱 연산에 특화된 신경망처리장치(Neural Processing Unit, NPU) 등의 AI 전용 하드웨어 가속기가 등장했다(Schneider & Smalley, 2024a; 2024b). 이러한 특화된 설계로 인해 AI 전용 하드웨어 가속기는 특정 AI 연산 작업에서 GPU보다 훨씬 높은 성능과 에너지 효율을 제공할 수 있다.
- 03_“저전력 AI 하드웨어 가속기” 중에서
AI 모델 경량화(Model Compression)는 딥러닝 모델의 크기와 복잡도를 줄여 연산 장치, 메모리, 전력 등 적은 자원으로, 효율적으로 작동하도록 만드는 기술이다. … 경량화를 통해 AI 모델 크기가 작아지면 데이터 처리 속도와 응답이 빨라져 자율주행과 같은 실시간 처리가 필요한 응용에 도움이 된다. 또한, AI 모델 경량화를 통해서 데이터센터 서버 유지 비용과 클라우드 연산 비용을 낮출 수 있다(키키월드, 2024). AI 모델 경량화 기술은 모델 프루닝(Pruning), 양자화(Quantization), 지식 증류(Knowledge Distillation), 효율적인 신경망 구조 설계 등이 있다.
- 05_“AI 모델 경량화의 저전력 접근” 중에서