본문으로 바로가기
태극기이 누리집은 대한민국 공식 전자정부 누리집입니다.
평면표지(2D 앞표지)
입체표지(3D 표지)
2D 뒤표지

LLM 인 프로덕션

대규모 언어 모델의 성공적인 제품화 전략


  • ISBN-13
    979-11-5839-609-1 (93000)
  • 출판사 / 임프린트
    주식회사 위키아카데미 / 위키북스
  • 정가
    35,000 원 확정정가
  • 발행일
    2025-06-18
  • 출간상태
    출간
  • 저자
    크리스토퍼 브루소 , 매슈 샤프
  • 번역
    307번역랩 , 류광
  • 메인주제어
    인공지능
  • 추가주제어
    -
  • 키워드
    #인공지능 #LLM #프로덕션
  • 도서유형
    종이책, 무선제본
  • 대상연령
    모든 연령, 성인 일반 단행본
  • 도서상세정보
    188 * 240 mm, 556 Page

책소개

LLM 기반 애플리케이션을 안전하고 효율적으로 프로덕션에 배포하는 방법을 배우자!

 

이 실용적인 책은 LLM의 작동 원리, LLM과의 상호작용 방식, 애플리케이션과 LLM의 통합 방법을 풍부한 예제와 함께 명확하게 설명한다. 이 책을 통해 기존 소프트웨어나 머신러닝(ML)과 비교해 LLM이 무엇이 다른지 이해하고, 연구실을 벗어나 실무에서 LLM을 다룰 때의 모범관행들을 익힐 수 있다. 또한 이 책은 흔히 발생하는 문제들을 피하는 데 도움이 되는, 저자들의 경험에서 비롯한 조언도 제공한다.

 

★ 이 책에서 다루는 내용 ★

 

◎ LLM의 기본 개념과 기반 기술

◎ 사전 훈련된 LLM을 사용할지, 직접 구축할지 평가하는 방법

◎ LLM의 요구사항을 처리할 수 있도록 ML 플랫폼을 효율적으로 확장하는 방법

◎ LLM의 기초(foundation) 모델을 훈련하고 기존 LLM을 미세조정하는 방법

◎ PEFT와 LoRA 같은 복잡한 아키텍처를 활용해 클라우드와 엣지 기기에 LLM을 배포하는 방법

◎ LLM의 강점을 최대한 활용하면서도 단점을 보완하는 애플리케이션 구축 방법

 

《LLM 인 프로덕션》은 ML옵스를 활용해서 LLM을 프로덕션에 원활하게 적용하는 데 필요한 핵심적인 통찰을 제공한다. LLM 훈련에 적합한 데이터셋을 확보하는 방법부터 플랫폼 구축, 모델의 거대한 크기에 따른 문제의 해결까지 실질적인 가이드를 담았다. 또한 프롬프트 엔지니어링, 모델 재훈련(retraining), 부하 테스트(load testing), 비용 관리, 보안 강화 등의 실용적인 팁과 기법도 다룬다.

목차

▣ 1장: 깨어난 단어들: LLM이 주목받는 이유 

1.1 LLM이 가속하는 의사소통 

1.2 LLM을 직접 구축할 것인가, 아니면 구매할 것인가 

__1.2.1 구매: 잘 닦인 길 

__1.2.2 자체 구축: 덜 다듬어진 길 

__1.2.3 경고 한마디: 지금 당장 미래를 받아들여라 

1.3 미신 타파 

요약 

 

▣ 2장: LLM의 이해: 언어 모델링 심층 탐구 

2.1 언어 모델링 

2.1.1 언어적 특징들 

__2.1.2 기호학 

__2.1.3 다국어 NLP 

2.2 언어 모델링 기법들 

__2.2.1 N-그램과 말뭉치 기반 기법 

__2.2.2 베이즈 기법 

__2.2.3 마르코프 연쇄 

__2.2.4 연속 언어 모델링 

__2.2.5 임베딩 

__2.2.6 다층 퍼셉트론(MLP) 

__2.2.7 순환 신경망(RNN)과 장단기 메모리(LSTM) 네트워크 

__2.2.8 주의 메커니즘 

2.3 “Attention Is All You Need”(필요한 것은 주의뿐이다) 

__2.3.1 인코더 

__2.3.2 디코더 

__2.3.3 트랜스포머 

2.4 아주 큰 트랜스포머 모델 

요약 

 

▣ 3장: LLM옵스: LLM을 위한 플랫폼 구축 

3.1 LLM옵스의 소개 

3.2 LLM의 운영에 따르는 난제들 

__3.2.1 긴 다운로드 시간 

__3.2.2 더 긴 배포 시간 

__3.2.3 지연 시간 

__3.2.4 GPU 관리 

__3.2.5 텍스트 데이터의 특수성 

__3.2.6 토큰 한계에 의한 병목현상 

__3.2.7 환각으로 인한 혼란 

__3.2.8 편향성과 윤리적 고려사항 

__3.2.9 보안 우려사항 

__3.2.10 비용 관리 

3.3 LLM옵스의 핵심 요소 

__3.3.1 압축 

__3.3.2 분산 컴퓨팅 

3.4 LLM옵스 인프라 

__3.4.1 데이터 인프라 

__3.4.2 실험 추적기 

__3.4.3 모델 레지스트리 

__3.4.4 특징 저장소 

__3.4.5 벡터 데이터베이스 

__3.4.6 모니터링 시스템 

__3.4.7 GPU 지원 워크스테이션 

__3.4.8 배포 서비스 

요약 

 

▣ 4장: LLM을 위한 데이터 엔지니어링: 성공을 위한 준비 

4.1 기초로서의 모델 

__4.1.1 GPT 

__4.1.2 BLOOM 

__4.1.3 라마 

__4.1.4 위저드 

__4.1.5 팰콘 

__4.1.6 비쿠나 

__4.1.7 돌리 

__4.1.8 오픈챗 

4.2 LLM 평가 

__4.2.1 텍스트 평가를 위한 지표들 

__4.2.2 업계 주요 벤치마크들 

__4.2.3 책임 있는 AI 벤치마크들 

__4.2.4 자체 벤치마크 개발 

__4.2.5 코드 생성기의 평가 

__4.2.6 모델 매개변수 평가 

4.3 LLM을 위한 데이터 

__4.3.1 알아야 할 데이터셋들 

__4.3.2 데이터 정제와 준비 

4.4 텍스트 처리 

__4.4.1 토큰화 

__4.4.2 임베딩 

4.5 슬랙 데이터셋 준비 

요약 

 

▣ 5장: LLM의 훈련: 생성기를 만드는 방법 

5.1 다중 GPU 환경 

__5.1.1 환경 설정 

__5.1.2 라이브러리 

5.2 기본 훈련 기법 

__5.2.1 밑바닥부터 훈련하기 

__5.2.2 전이 학습(미세조정)

__5.2.3 프롬프팅 

5.3 고급 훈련 기법들 

__5.3.1 프롬프트 조정 

__5.3.2 지식 증류를 활용한 미세조정 

__5.3.3 RLHF(인간 피드백 기반 강화학습) 

__5.3.4 전문가 혼합(MoE) 

__5.3.5 LoRA와 PEFT 

5.4 훈련 관련 팁과 트릭 

__5.4.1 훈련 데이터 크기에 관한 참고사항 

__5.4.2 효율적인 훈련 

__5.4.3 극솟값의 함정 

__5.4.4 초매개변수 조정 팁 

__5.4.5 운영체제에 관한 참고사항 

__5.4.6 활성화 함수 조언 

요약 

 

▣ 6장: LLM 서비스 만들기: 실제 가이드 

6.1 LLM 서비스 만들기 

__6.1.1 모델 컴파일 

__6.1.2 LLM 저장 전략 

__6.1.3 적응형 요청 배치 처리 

__6.1.4 흐름 제어 

__6.1.5 응답 스트리밍 

__6.1.6 특징 저장소 

__6.1.7 RAG(검색 증강 생성) 

__6.1.8 LLM 서비스 라이브러리 

6.2 인프라 구축 

__6.2.1 클러스터 준비 

__6.2.2 자동확장 

__6.2.3 롤링 업데이트 

__6.2.4 추론 그래프 

__6.2.5 모니터링 

6.3 프로덕션의 난제들 

__6.3.1 모델 갱신 및 재훈련 

__6.3.2 부하 테스트 

__6.3.3 지연 시간 문제 해결 

__6.3.4 자원 관리 

__6.3.5 비용 엔지니어링 

__6.3.6 보안 

6.4 엣지 배포 

요약 

 

▣ 7장: 프롬프트 엔지니어링: LLM 조련사가 되려면 

7.1 모델 프롬프팅 

__7.1.1 퓨샷 프롬프팅 

__7.1.2 원샷 프롬프팅 

__7.1.3 제로샷 프롬프팅 

7.2 프롬프트 엔지니어링의 기초 

__7.2.1 프롬프트의 해부 

__7.2.2 프롬프트 초매개변수들 

__7.2.3 훈련 데이터 살펴보기 

7.3 프롬프트 엔지니어링 도구 

__7.3.1 랭체인 

__7.3.2 가이던스 

__7.3.3 DSPy 

__7.3.4 다른 도구들도 있지만… 

7.4 고급 프롬프트 엔지니어링 기법 

__7.4.1 LLM에 도구 제공하기 

__7.4.2 ReAct 

요약 

 

▣ 8장: LLM 애플리케이션: 상호작용 경험 구축 

8.1 애플리케이션 만들기 

__8.1.1 프런트엔드에서의 스트리밍 

__8.1.2 대화 기록 유지 

__8.1.3 챗봇 상호작용 기능 

__8.1.4 토큰 카운터 

__8.1.5 RAG 적용 

8.2 엣지 애플리케이션 

8.3 LLM 에이전트 

요약 

 

▣ 9장: LLM 프로젝트 만들기: 라마3의 재구현 

9.1 메타의 라마 재구현 

__9.1.1 토큰화 및 설정 

__9.1.2 데이터셋 준비, 데이터 적재, 평가, 생성 

__9.1.3 모델 아키텍처 

9.2 간소화된 라마3 

9.3 모델 개선 

__9.3.1 양자화 

__9.3.2 LoRA 

__9.3.3 FSDP QLoRA 적용 

9.4 허깅 페이스 스페이스에 모델 배포 

요약 

 

▣ 10장: 코딩 코파일럿 프로젝트 만들기: 실제로 도움이 될까? 

10.1 예제 모델 

10.2 데이터가 왕이다 

__10.2.1 예제 벡터 DB 

__10.2.2 예제 데이터셋 

__10.2.3 RAG 적용 

10.3 VS 코드 확장 프로그램 만들기 

10.4 배운 교훈과 다음 단계 

요약 

 

▣ 11장: 라즈베리 파이에 LLM 배포하기: 얼마나 작게 만들 수 있을까? 

11.1 라즈베리 파이 설정 

__11.1.1 파이 이미저를 이용한 OS 이미지 준비 

__11.1.2 파이에 연결하기 

__11.1.3 소프트웨어 설치 및 갱신 

11.2 모델 준비 

11.3 모델 서빙 

11.4 개선사항 

__11.4.1 더 나은 인터페이스 

__11.4.2 양자화 변경 

__11.4.3 다중 모달 추가 

__11.4.4 구글 코랩에서 모델 서빙 

요약 

 

▣ 12장: 프로덕션, 끊임없이 변화하는 풍경: 이제 시작일 뿐이다 

12.1 전체적인 조망 

12.2 LLM의 미래 

__12.2.1 정부와 규제 

__12.2.2 계속 커지는 LLM 

__12.2.3 다중 모달 공간 

__12.2.4 데이터셋 

__12.2.5 환각 문제의 해결 

__12.2.6 새로운 하드웨어 

__12.2.7 에이전트의 유용성이 입증될 것이다 

12.3 마무리 의견 

요약 

 

▣ 부록A: 간략한 언어학 역사 

A.1 고대 언어학 

A.2 중세 언어학 

A.3 르네상스와 근현대 언어학 

A.4 20세기 초 언어학 

A.5 20세기 중반과 현대 언어학 

 

▣ 부록B: RLHF(인간 피드백 기반 강화학습) 

 

▣ 부록C: 다중 모달 잠재 공간

본문인용

-

서평

-

저자소개

저자 : 크리스토퍼 브루소
크리스토퍼 브루소는 언어학 및 현지화 배경을 가진 JPMorganChase의 간부급 머신러닝 엔지니어(machine learning engineer, MLE)이다. 특히 국제적 초점을 맞춘 언어학적 정보에 기반한 NLP를 전문으로 하며, 스타트업은 물론이고 포천 500대 기업들에서도 성공적인 ML 및 데이터 제품 이니셔티브를 이끌었다.
저자 : 매슈 샤프
매슈 샤프는 데이터 과학자 출신의 엔지니어로, ML옵스 분야에 경험이 많은 기술 리더(tech leader)이다. 스타트업과 최고 수준의 기술 회사 모두에서 많은 성공적인 데이터 이니셔티브를 이끌었다. 매슈는 프로덕션 환경이 어떤 모습이든 상관없이 프로덕션에서 머신러닝 모델을 배포, 관리 및 확장하는 것을 전문으로 한다.
번역 : 307번역랩
전문 번역가의 효율적인 번역 작업을 위해 초벌 번역 및 자료 정리 서비스를 제공하는 번역 엔지니어 집단이다. 급변하는 IT 분야의 가치 있는 외국 서적을 발 빠르게 국내 독자에게 전달하는 데 보람을 느낀다.
번역 : 류광
커누스 교수의 《컴퓨터 프로그래밍의 예술》 시리즈를 비롯해 90여 권의 다양한 IT 전문서를 번역한 전문 번역가이다. 이 책과 연관된 번역서로는 《파이썬으로 배우는 자연어 처리 인 액션》 《마스터링 트랜스포머》 《실전! RAG 기반 생성형 AI 개발》 등이 있으며, Manning 출판사의 《AI Agents In Action》을 번역 중이다. 홈페이지 류광의 번역 이야기(https://occamsrazr.net)와 IT 및 게임 개발 정보 공유 사이트 GpgStudy(https://gpgstudy.com)를 운영한다.
상단으로 이동
  • (54866) 전북특별자치도 전주시 덕진구 중동로 63