19. Efficient AI 단계별 학습 문서

원문 경로

/Users/keumky/Documents/New project 3/sources/mlsysbook/19-efficient_ai/source.md

짧은 소개

이 장은 AI를 “크게 만들수록 좋아진다”는 단순한 생각에서 한 걸음 더 나아가요. 큰 모델은 성능을 높일 수 있지만, 비용, 전력, 메모리, 데이터, 지연시간, 환경 부담도 함께 커져요.

그래서 이 장의 핵심은 제한된 자원 안에서 목표 성능을 가장 잘 달성하는 AI 시스템을 어떻게 설계할 것인가입니다. 원문은 이 문제를 알고리즘 효율, 컴퓨트 효율, 데이터 효율이라는 세 축으로 나누어 설명해요.

읽는 방법

처음부터 끝까지 한 번에 세부 내용을 외우려고 하지 않아도 돼요. 이 장은 반복해서 깊이를 늘리는 방식으로 읽는 것이 좋습니다.

읽기 회차볼 부분목표
1회차Purpose, The Efficiency Imperative, Summary왜 효율성이 중요한지 큰 그림을 잡아요.
2회차Defining System Efficiency, Efficiency Framework, Real-World Strategies효율의 세 축과 배포 환경별 우선순위를 이해해요.
3회차AI Scaling Laws, Trade-offs, Optimization Limits, Fallacies수식, 자원 배분, 한계, 함정을 차분히 정리해요.

읽을 때는 다음 질문을 계속 붙잡으면 좋아요.

성능을 높이려면 무엇을 더 써야 할까요?
그 자원은 현실에서 충분할까요?
한 자원을 아끼면 다른 곳에서 비용이 늘어나지는 않을까요?

이 장의 한 줄 요약

Efficient AI는 성능을 무조건 낮추는 기술이 아니라, 모델 크기, 계산량, 데이터, 전력, 비용, 배포 환경 사이의 균형을 맞추어 지속 가능하고 실제로 배포 가능한 AI를 만드는 시스템 설계 원칙이에요.

1단계: 중학교 수준

효율적인 AI는 “똑똑하게 아껴 쓰는 AI”예요

AI 모델을 아주 큰 트럭이라고 생각해볼게요. 트럭은 짐을 많이 실을 수 있지만, 기름도 많이 먹고 좁은 골목에는 들어가기 어려워요. 반대로 작은 배달 오토바이는 싣는 양은 적지만 빠르고, 싸고, 좁은 길도 잘 다녀요.

AI도 비슷해요. 거대한 AI는 어려운 일을 잘할 수 있지만, 전기도 많이 쓰고, 비싸고, 스마트폰 같은 작은 기기에는 넣기 어려워요. 그래서 현실에서는 “가장 큰 AI”보다 “주어진 상황에 가장 알맞은 AI”가 더 중요할 때가 많아요.

효율성은 한 가지가 아니에요

효율적인 AI라고 하면 보통 “빠른 AI”를 떠올리지만, 이 장에서는 더 넓게 봐요.

쉬운 표현이 장에서 말하는 뜻
머리를 덜 쓰기계산을 적게 하기
몸집 줄이기모델 크기와 메모리 사용 줄이기
전기 아끼기배터리와 에너지 덜 쓰기
적은 예시로 배우기데이터 효율을 높이기
기다리지 않게 하기응답 시간을 줄이기
돈을 아끼기학습과 서비스 비용 줄이기

중요한 점은 이 목표들이 서로 항상 같이 좋아지지는 않는다는 거예요. 예를 들어 모델을 작게 만들면 빨라질 수 있지만, 정답을 맞히는 능력이 조금 떨어질 수 있어요.

스마트폰 사진 검색 예시로 볼게요

스마트폰 안에서 “강아지 사진 찾아줘”라고 검색하는 앱을 생각해요.

이 앱은 세 가지를 동시에 만족해야 해요.

필요한 것쉬운 설명
작은 모델휴대폰 안에 들어갈 만큼 가벼워야 해요.
빠른 실행검색 결과가 바로 나와야 해요.
적은 데이터로 적응사용자의 사진을 너무 많이 밖으로 보내지 않고 배워야 해요.

여기서 효율적인 AI는 “가장 똑똑한 모델 하나를 넣자”가 아니에요. 휴대폰이라는 제한된 장소에서 충분히 잘 작동하는 균형점을 찾는 일이에요.

크게 만들면 좋아지지만 끝이 없지는 않아요

AI 모델은 보통 더 크게 만들고, 더 많은 예시를 보여주고, 더 오래 훈련하면 성능이 좋아지는 경향이 있어요. 하지만 계속 그렇게만 할 수는 없어요.

마치 시험 공부를 할 때 처음 몇 시간은 성적이 많이 오르지만, 이미 많이 공부한 뒤에는 한 시간을 더 공부해도 점수가 조금만 오르는 것과 비슷해요. 어느 순간부터는 더 많은 노력에 비해 얻는 이득이 작아져요.

이 장에서 말하는 스케일링 법칙은 바로 이런 “크게 만들 때 나타나는 규칙”을 알려줘요. 하지만 이 규칙은 마법 공식이 아니에요. 데이터가 부족하거나, 컴퓨터가 감당하지 못하거나, 전기 비용이 너무 커지면 한계가 와요.

1단계 중간 정리

Efficient AI
= 무조건 작은 AI가 아니에요.
= 무조건 빠른 AI도 아니에요.
= 주어진 환경에서 성능, 비용, 전력, 데이터, 속도의 균형을 맞춘 AI예요.

2단계: 고등학교 수준

블랙박스 안의 규칙을 조금 열어볼게요

1단계에서는 “큰 트럭과 작은 배달 수단”처럼 비유로 이해했어요. 이제는 효율성을 조금 더 논리적으로 볼게요.

AI 시스템의 효율은 대략 이렇게 생각할 수 있어요.

효율 = 얻은 성능 / 사용한 자원

여기서 성능은 정확도, 품질, 사용자 만족도 같은 것이고, 자원은 계산량, 메모리, 전력, 데이터, 돈, 시간 같은 것이에요.

하지만 현실에서는 분자가 하나, 분모가 하나인 단순한 문제가 아니에요. 예를 들어 정확도는 올랐지만 전력 사용량이 크게 늘었다면, 그 시스템이 정말 효율적인지는 배포 환경에 따라 달라져요.

세 가지 효율 축

원문은 효율성을 세 축으로 정리해요.

효율 축핵심 질문예시
알고리즘 효율모델 자체가 일을 덜 하면서도 잘 맞히나요?압축, 가지치기, 양자화, 작은 구조
컴퓨트 효율하드웨어를 놀리지 않고 잘 쓰나요?GPU, TPU, NPU, 배치 처리, 혼합 정밀도
데이터 효율적은 데이터로도 잘 배우나요?전이학습, 데이터 증강, 능동학습, 자기지도학습

이 셋은 따로 움직이지 않아요. 모델을 작게 만들면 컴퓨트가 쉬워지고, 컴퓨트가 효율적이면 더 많은 데이터를 학습할 여지가 생기고, 데이터가 좋아지면 큰 모델이 아니어도 성능을 낼 수 있어요.

사진 검색 앱의 데이터 흐름

스마트폰 사진 검색 앱을 조금 더 시스템처럼 보면 이런 흐름이에요.

사용자 사진

가벼운 이미지-텍스트 모델

휴대폰 안의 CPU/GPU/NPU에서 추론

검색 결과 반환

사용자 반응을 보고 조금씩 개선

이때 세 효율 축은 각각 다른 위치에서 작동해요.

위치효율 문제
모델 선택너무 큰 모델이면 휴대폰 메모리에 못 들어가요.
추론 실행너무 느리면 검색 경험이 나빠져요.
사용자 적응너무 많은 개인 사진을 밖으로 보내면 프라이버시 문제가 생겨요.

스케일링 법칙을 고등학교 수학 느낌으로 이해하기

스케일링 법칙은 “자원을 늘리면 손실이 어떤 모양으로 줄어드는가”를 보는 경험적 규칙이에요. 완벽한 직선 관계는 아니고, 보통 처음에는 많이 좋아지다가 나중에는 조금씩만 좋아지는 형태가 나타나요.

고등학교 수준으로 말하면, 다음처럼 볼 수 있어요.

모델 크기 증가 → 더 복잡한 패턴을 표현할 수 있음
데이터 증가 → 더 다양한 예시를 볼 수 있음
계산량 증가 → 더 오래, 더 크게 학습할 수 있음

하지만 한쪽만 키우면 문제가 생겨요.

한쪽만 키운 경우생길 수 있는 문제
모델만 키움데이터가 부족하면 외우기만 할 수 있어요.
데이터만 키움모델이 작으면 복잡한 패턴을 담지 못해요.
계산 장비만 늘림통신, 메모리, 병렬화 overhead 때문에 장비가 놀 수 있어요.

그래서 중요한 질문은 “얼마나 크게 만들까?”가 아니라 **주어진 계산 예산 안에서 모델 크기와 데이터 크기를 어떻게 나눌까?**예요.

세 가지 운영 상황

원문은 자원이 부족한 방식에 따라 다른 전략이 필요하다고 설명해요.

상황무엇이 부족한가요?전략
계산 제한 상황컴퓨터 시간, GPU, 전력작은 모델을 더 잘 훈련하거나 계산을 아껴요.
데이터 제한 상황좋은 데이터, 라벨, 도메인 데이터큰 모델의 사전 지식을 활용하고 데이터를 선별해요.
균형 상황계산과 데이터가 잘 맞음모델 크기와 데이터 크기를 함께 조정해요.

또 시간 관점에서도 세 가지가 있어요.

사전학습 단계: 처음부터 큰 능력을 만드는 단계
사후학습 단계: 특정 작업에 맞게 조정하는 단계
추론 단계: 답을 낼 때 더 생각하게 하는 단계

즉 효율화는 학습 전에만 하는 일이 아니에요. 학습 후 조정이나 실제 답변 시점에서도 성능과 비용을 조절할 수 있어요.

배포 환경마다 우선순위가 달라요

배포 환경가장 중요한 효율
클라우드많은 요청을 싸고 안정적으로 처리하는 것
엣지현장에서 빠르게 반응하는 것
모바일배터리, 발열, 응답 속도를 균형 있게 맞추는 것
TinyML아주 작은 메모리와 전력으로 동작하는 것

같은 모델이라도 어디에서 실행하느냐에 따라 좋은 선택이 달라져요. 서버에서는 큰 배치로 처리량을 높이는 것이 좋을 수 있지만, 자율주행이나 증강현실처럼 즉시 반응해야 하는 곳에서는 기다리는 시간이 치명적일 수 있어요.

2단계 중간 정리

효율적인 AI 설계 순서

1. 배포 환경의 제약을 확인해요.
2. 성능 목표와 자원 한계를 정해요.
3. 알고리즘, 컴퓨트, 데이터 효율 중 우선순위를 정해요.
4. 한쪽 최적화가 다른 쪽을 망치지 않는지 측정해요.
5. 실제 운영 중에도 비용, 전력, 지연시간을 계속 관찰해요.

3단계: 대학교 수준

이제 원문의 흐름을 따라가며 더 엄밀하게 볼게요. 1단계와 2단계에서 잡은 직관을 바탕으로, 스케일링 법칙, 최적 자원 배분, 압축, 하드웨어, 데이터 품질, 배포 환경, 사회적 한계까지 연결해요.

3.1 Purpose: 이 장이 던지는 핵심 질문

원문의 출발점은 다음 질문이에요.

머신러닝 시스템의 효율성을 추구할 때 어떤 trade-off가 생기며, 엔지니어는 왜 서로 충돌하는 목표들을 균형 있게 다루어야 할까요?

여기서 효율성은 단순한 속도 개선이 아니에요. 원문은 다음 능력을 목표로 삼아요.

목표의미
스케일링 법칙 분석계산 예산, 모델 크기, 데이터 요구량 사이의 관계를 이해해요.
배포 맥락 비교클라우드, 엣지, 모바일, TinyML에서 효율 우선순위가 어떻게 다른지 봐요.
효율 지표 평가처리량, 지연시간, 에너지, 자원 사용률을 함께 평가해요.
압축 기법 적용가지치기, 양자화, 지식 증류로 모델을 줄여요.
맥락 기반 전략 설계운영 조건에 따라 어떤 효율을 먼저 볼지 정해요.
스케일링 비판무작정 키우는 방식의 포화점과 한계를 찾아요.
사회적 영향 평가환경 부담과 접근성 문제를 함께 고려해요.

3.2 The Efficiency Imperative: 효율성은 선택이 아니라 조건이에요

원문은 현대 머신러닝에서 효율성이 “나중에 생각할 최적화”가 아니라 시스템 가능성을 결정하는 기본 조건이 되었다고 설명해요.

대표 사례가 GPT-3예요. 원문은 GPT-3 학습 비용을 약 460만 달러로 추정하고, 에너지 사용량을 1,287MWh로 제시해요. 추론 시 메모리 요구량도 매우 커서, 전체 정밀도 기준으로 700GB를 넘고, 반정밀도에서도 약 350GB 수준이라고 설명해요.

이 숫자들이 말하는 바는 분명해요.

모델 표현력 증가

더 좋은 성능 가능

하지만 학습 비용, 전력, 메모리, 배포 장벽 증가

효율화 없이는 실제 서비스와 보급이 어려워짐

따라서 효율성 연구는 단순히 비용을 아끼는 문제가 아니에요. 알고리즘 복잡도, 컴퓨터 구조, 데이터 사용 전략이 서로 맞물려 시스템이 실제로 가능한지 결정하는 문제예요.

3.3 Defining System Efficiency: 시스템 효율성의 세 축

원문은 스마트폰 사진 검색 앱을 예로 들어 시스템 효율성을 설명해요. 이 앱은 사용자 사진을 검색해야 하므로 다음 제약을 동시에 받아요.

제약원문 예시연결되는 효율
메모리2GB 안에 들어가야 함알고리즘 효율, 컴퓨트 효율
검색 시간50ms 안에 결과가 나와야 함알고리즘 효율, 컴퓨트 효율
학습 데이터사용자별 예시는 제한적임데이터 효율

세 효율 축은 다음처럼 얽혀 있어요.

효율 축하는 일좋아지는 점생길 수 있는 부담
알고리즘 효율모델 구조와 학습 절차를 더 가볍게 만들어요.계산량, 메모리, 추론 시간이 줄어요.정확도 하락이나 설계 복잡도가 생길 수 있어요.
컴퓨트 효율하드웨어를 더 잘 활용해요.처리량이 늘고 전력 낭비가 줄어요.특정 하드웨어에 맞춘 구현이 필요할 수 있어요.
데이터 효율적은 데이터에서 더 많은 정보를 배워요.라벨 비용과 데이터 수집 부담이 줄어요.더 정교한 학습 절차가 필요할 수 있어요.

사진 검색 예시에서 10억 개 매개변수 모델 대신 5천만 개 매개변수 모델을 쓰면 메모리 요구량이 4GB에서 200MB로 줄고, 추론 시간이 2초에서 100ms로 줄 수 있어요. 하지만 정확도는 92%에서 85%로 떨어질 수 있어요.

이것이 trade-off예요. 효율화는 “좋은 것만 얻는 기술”이 아니라, 어떤 손실을 받아들일 수 있는지 평가하는 설계 과정이에요.

또 8비트 양자화나 배치 처리는 컴퓨트 효율을 높일 수 있지만, 지연시간과 처리량 사이의 균형을 새로 만들어내요. 여러 요청을 묶어 처리하면 장비 사용률은 좋아지지만, 각 요청은 묶일 때까지 기다려야 할 수 있어요.

데이터 효율 측면에서는 사전학습된 모델을 활용하고, 사용자의 상호작용을 암묵적 피드백으로 삼아 적은 데이터로 적응해요. 이 방식은 개인정보를 서버로 보내지 않고 기기 안에서 처리할 가능성을 열어주므로, 효율성과 프라이버시가 함께 좋아질 수 있어요.

3.4 AI Scaling Laws: 스케일링 법칙

스케일링 법칙은 모델 크기, 데이터 크기, 계산량을 늘릴 때 성능이 어떤 규칙적인 패턴으로 바뀌는지를 설명하는 경험적 관계예요.

3.4.1 경험적 증거

원문은 언어 모델의 크기 변화를 예로 들어요.

모델시기매개변수 수의미
GPT-120181.17억기본적인 문장 완성 능력
GPT-2201915억더 일관된 문단 생성
GPT-320201,750억다양한 영역의 고급 텍스트 생성

컴퓨터 비전에서도 비슷한 흐름이 있었어요. AlexNet은 약 6천만 매개변수, VGG-16은 약 1억 3,800만 매개변수였고, 현대의 큰 비전 트랜스포머는 6억 매개변수를 넘을 수 있어요.

핵심은 “규모가 커지면 성능이 좋아지는 경향”이 실제로 관찰되었다는 점이에요. 하지만 GPT-3 학습에는 약 314섹스틸리언, 즉 314 뒤에 0이 21개 붙는 수준의 부동소수점 연산이 필요했다고 원문은 설명해요. 이 정도 규모는 비용과 환경 부담을 무시할 수 없게 만들어요.

3.4.2 Compute-Optimal Resource Allocation

스케일링 법칙에서 중요한 결론은 고정된 계산 예산이 있을 때 모델 크기와 데이터 크기의 최적 균형이 있다는 점이에요.

원문은 언어 모델 학습에서 다음 세 자원을 함께 봐야 한다고 설명해요.

기호
(N)모델 매개변수 수
(D)학습 데이터 크기, 보통 토큰 수
(C)전체 계산 예산, 보통 FLOPs

토큰은 언어 모델이 처리하는 텍스트 조각이에요. FLOPs는 부동소수점 연산 횟수로, 학습에 들어간 계산 작업량을 나타내요.

원문은 고정된 FLOPs 안에서 가장 낮은 손실을 내는 모델 크기와 데이터 크기 조합이 있다고 설명해요. 이 관점에서는 모델만 키우는 것이 최선이 아니에요.

특히 원문은 다음 관계를 제시해요.

[ D \propto N^{0.74} ]

이 식은 모델 크기 (N)이 커질 때 데이터 크기 (D)도 함께 커져야 하지만, 같은 비율로 무작정 커지는 것은 아니라는 뜻이에요. 대략 모델이 커질수록 데이터도 조정된 비율로 늘려야 compute-optimal한 학습에 가까워져요.

하지만 이론적 관계는 완벽한 하드웨어 사용을 가정해요. 실제 분산 학습에서는 통신 overhead가 생겨요. 원문은 100개 노드를 넘는 규모에서 워크로드와 연결망에 따라 기대 성능 향상이 20-40% 줄어들 수 있다고 설명해요. 즉 수식상 계산 예산이 충분해 보여도, 네트워크 통신과 동기화가 병목이 될 수 있어요.

3.4.3 수학적 기반

원문은 스케일링 법칙을 다음과 같은 멱법칙 형태로 표현해요.

[ \mathcal{L}(N) = A N^{-\alpha} + B ]

각 항의 의미를 풀어볼게요.

의미
(\mathcal{L}(N))자원 (N)을 사용했을 때의 손실
(A)과제나 데이터에 따라 달라지는 크기 계수
(N^{-\alpha})자원을 늘릴수록 손실이 줄어드는 패턴
(\alpha)자원을 늘렸을 때 성능이 얼마나 빠르게 좋아지는지 나타내는 지수
(B)더 줄이기 어려운 바닥 손실

(\alpha)가 클수록 같은 자원 증가로 손실이 더 빨리 줄어들어요. 하지만 (B)가 있기 때문에 손실이 끝없이 0으로 내려간다고 생각하면 안 돼요. 데이터의 한계, 문제의 불확실성, 모델 구조의 한계 때문에 바닥이 생길 수 있어요.

3.4.4 자원 제한 상황

원문은 자원 배분 상황을 세 가지로 나누어요.

상황설명적절한 전략
계산 제한데이터는 많지만 계산 예산이 부족해요.작은 모델을 더 오래 또는 더 효율적으로 학습해요.
데이터 제한계산 자원은 있지만 좋은 데이터가 부족해요.큰 모델의 표현력을 활용하되 제한된 데이터에서 최대 정보를 뽑아요.
최적 균형모델, 데이터, 계산이 균형 있게 배분돼요.compute-optimal frontier를 따라가요.

원문은 Chinchilla 사례를 통해, 더 큰 모델이 항상 좋은 것이 아니라 계산과 데이터 균형을 맞춘 모델이 더 효율적일 수 있음을 설명해요.

3.4.5 데이터 중심 스케일링 구간

데이터 크기와 일반화 오류 사이에는 세 구간이 있어요.

구간특징
데이터 부족 구간예시가 너무 적어 통계적 추정이 불안정해요.
멱법칙 구간데이터를 늘리면 예측 가능한 방식으로 오류가 줄어요.
포화 구간데이터를 더 넣어도 새 정보가 적어 개선이 작아요.

효율적인 시스템 설계에서는 가능한 한 멱법칙 구간에서 자원을 쓰고, 포화 구간으로 들어갔는지 감지해야 해요.

3.4.6 시간 관점의 스케일링

원문은 학습 생애주기 관점에서도 세 구간을 설명해요.

구간언제 쓰나요?예시
사전학습 스케일링모델을 처음 크게 학습할 때모델 크기, 데이터, 계산량 증가
사후학습 스케일링기본 모델을 특정 작업에 맞출 때파인튜닝, 프롬프트 조정, 적응
테스트 시점 스케일링답을 낼 때 추가 계산을 쓸 때앙상블, 단계적 추론, 반복 개선

이 구분은 중요해요. 성능을 높이는 방법이 “처음부터 다시 크게 학습”만 있는 것이 아니기 때문이에요. 자원이 제한된 상황에서는 사후학습이나 테스트 시점 계산 조절이 더 실용적일 수 있어요.

3.4.7 시스템 설계에서의 활용

스케일링 법칙은 큰 학습을 시작하기 전에 예상 성능과 비용을 추정하게 해줘요. 원문은 GPT-3 개발에서 기존 트랜스포머 구조를 크게 바꾸기보다, 이전 실험에서 얻은 스케일링 법칙을 바탕으로 약 1,750억 매개변수와 3,000억 토큰 규모를 계획한 사례를 설명해요.

실무적으로는 다음에 쓸 수 있어요.

용도설명
예산 계획계산을 더 사야 하는지, 데이터를 더 모아야 하는지 판단해요.
구조 탐색 절약새 구조 탐색보다 기존 구조 확장이 나은지 비교해요.
작은 배포 모델 선택성능 저하를 예측하며 작은 모델을 고를 수 있어요.
병목 진단자원을 더 써도 성능이 안 오르면 데이터, 모델, 하드웨어 중 무엇이 포화됐는지 의심해요.

3.4.8 지속가능성과 비용

스케일링은 성능 개선 경로를 보여주지만, 동시에 비용 폭증도 드러내요. 대규모 모델 학습에는 수백 또는 수천 개의 가속기가 필요할 수 있고, 수만 GPU-day와 막대한 전기를 소비할 수 있어요.

원문은 대형 모델의 학습 비용과 탄소 배출이 최첨단 AI 접근성을 제한한다고 말해요. 비싼 컴퓨트와 데이터 인프라를 가진 조직만 최전선 모델을 만들 수 있다면, 연구와 활용의 불균형이 커져요.

따라서 효율성은 기술 최적화이면서 동시에 접근성과 지속가능성의 문제예요.

3.4.9 스케일링 법칙이 깨지는 조건

스케일링 법칙은 특정 조건 안에서 잘 맞는 경험적 규칙이에요. 다음 상황에서는 예측이 깨질 수 있어요.

깨지는 원인설명
불균형한 확장모델만 키우고 데이터는 그대로 두면 과적합이 생길 수 있어요.
부족한 학습 설정조기 종료, 잘못된 배치 크기, 비효율적 병렬화가 성능을 제한해요.
데이터 포화고품질 데이터가 더 이상 충분히 늘지 않으면 개선이 작아져요.
하드웨어 병목메모리 대역폭, I/O, 네트워크 연결이 발목을 잡아요.
일반화 한계benchmark 점수는 오르지만 실제 이해나 견고성이 늘지 않을 수 있어요.

원문은 이런 한계 때문에 단순한 brute-force scaling에서 efficient scaling으로 넘어가야 한다고 정리해요.

3.5 The Efficiency Framework: 세 효율 축의 통합

스케일링 법칙이 보여준 제약은 효율성 프레임워크의 필요성을 만들어내요. 원문은 세 차원을 이렇게 연결해요.

스케일링의 한계

알고리즘 효율: 모델 자체를 덜 무겁게 만들기
컴퓨트 효율: 하드웨어를 더 잘 쓰기
데이터 효율: 적은 고품질 데이터에서 더 배우기

지속 가능하고 접근 가능한 AI 시스템

원문은 현대 기법들이 알고리즘 효율에서 10-100배, 하드웨어 활용에서 5-50배, 데이터 요구량에서 10-1000배 수준의 개선 가능성을 보여준다고 설명해요. 이 숫자는 세 축을 따로 보는 것보다 함께 최적화해야 하는 이유를 잘 보여줘요.

3.6 Achieving Algorithmic Efficiency: 알고리즘 효율

알고리즘 효율은 단위 계산당 성능을 높이는 것이에요. 핵심 관찰은 많은 신경망이 실제 필요보다 훨씬 많은 매개변수를 가지고 있다는 점이에요.

원문은 lottery ticket hypothesis를 언급해요. 큰 네트워크 안에는 원래 매개변수의 10-20% 정도만으로도 비슷한 성능을 낼 수 있는 희소 부분망이 존재할 수 있다는 생각이에요. 이 관점에서는 큰 모델이 최종 목표가 아니라, 효율적인 부분 구조를 찾기 위한 출발점이 될 수 있어요.

3.6.1 모델 압축

모델 압축은 불필요한 구성요소를 줄이는 접근이에요.

기법핵심 아이디어원문에서 제시한 효과
가지치기중요하지 않은 가중치나 구조를 제거해요.1-3% 정확도 손실로 2-4배 추론 속도 향상이 가능해요.
구조 축소큰 구조를 더 작은 구조로 바꿔요.ResNet-50을 원래 매개변수의 20% 수준으로 줄여도 ImageNet 정확도 99% 수준을 유지한 사례가 있어요.

여기서 중요한 점은 매개변수를 줄인다고 항상 실제 속도가 같은 비율로 빨라지는 것은 아니라는 점이에요. 불규칙한 희소성은 하드웨어에서 효율적으로 실행되지 않을 수 있어요.

3.6.2 정밀도 최적화

양자화는 높은 정밀도의 숫자를 낮은 정밀도 숫자로 바꾸는 기법이에요. 예를 들어 32비트 부동소수점 대신 8비트 정수를 쓰면 메모리와 연산량을 크게 줄일 수 있어요.

원문은 INT8 양자화가 보통 4배 메모리 감소, 2-4배 추론 속도 향상을 만들 수 있으며, FP32 정확도의 98-99%를 유지하는 경우가 많다고 설명해요.

하지만 이것도 하드웨어가 받쳐줘야 해요. 8비트 연산을 빠르게 처리하는 장치가 있으면 효과가 크지만, 그렇지 않으면 이론상 이득이 실제 속도 개선으로 이어지지 않을 수 있어요.

3.6.3 지식 증류

지식 증류는 큰 teacher 모델의 출력을 작은 student 모델이 흉내 내며 배우는 방식이에요. 정답 라벨만 배우는 것이 아니라, teacher가 각 선택지에 부여하는 부드러운 확률 분포까지 배워요.

원문은 지식 증류가 40-60% 매개변수 감소를 만들면서 원래 성능의 95-97%를 유지할 수 있다고 설명해요. 또한 적은 학습 예시로도 teacher의 지식을 활용할 수 있어 데이터 효율과도 연결돼요.

3.6.4 하드웨어-알고리즘 공동 설계

알고리즘을 줄이는 것만으로는 충분하지 않아요. 실제 이득은 하드웨어 특성과 맞아야 나타나요.

병목 유형의미적절한 대응
memory-bound계산보다 데이터 이동이 느려요.연산 fusion, 메모리 접근 패턴 개선
compute-bound데이터는 충분히 오지만 계산 장치가 바빠요.병렬화, 저정밀도 연산, 가속기 활용

예를 들어 INT8 양자화는 해당 연산을 빠르게 처리하는 GPU나 NPU에서는 큰 이득이 있지만, 정수 연산 가속이 부족한 장치에서는 이득이 제한될 수 있어요.

3.6.5 효율적 아키텍처

원문은 MobileNet, EfficientNet, SqueezeNet 같은 모델을 예로 들어요. 이 모델들은 단순히 기존 모델을 줄인 것이 아니라, 처음부터 자원 제약을 고려해 설계되었어요.

모델의미
MobileNetdepthwise separable convolution으로 매개변수를 크게 줄여 모바일 배포에 적합해요.
EfficientNet모델 깊이, 너비, 해상도를 균형 있게 조정해 높은 정확도와 효율을 함께 노려요.
SqueezeNetAlexNet 수준 정확도를 훨씬 적은 매개변수로 달성한 compact CNN이에요.

배포 환경마다 선호 구조도 달라져요. 클라우드는 처리량을 중시하므로 병렬 친화적 구조가 좋고, 엣지는 지연시간과 메모리 접근이 중요하며, 모바일은 에너지 효율이 핵심이에요.

3.6.6 매개변수 효율적 적응

Parameter-efficient fine-tuning은 전체 모델을 다 바꾸지 않고 아주 일부 매개변수만 업데이트하는 방식이에요. 원문은 이런 방법이 전체 매개변수의 1% 미만만 업데이트하면서도 전체 파인튜닝에 가까운 성능을 낼 수 있다고 설명해요.

LoRA 같은 방식은 큰 가중치 전체를 직접 바꾸는 대신, 변화량을 낮은 rank의 작은 행렬로 표현해요. 원문은 GPT-3 전체 파인튜닝이 1,750억 매개변수의 gradient 저장 때문에 700GB 이상의 GPU 메모리를 요구할 수 있지만, LoRA는 이를 10GB 미만으로 줄일 수 있다고 설명해요.

이 예시는 세 효율 축이 한꺼번에 좋아질 수 있음을 보여줘요.

효율 축왜 좋아지나요?
알고리즘 효율업데이트할 매개변수가 적어요.
컴퓨트 효율메모리와 학습 비용이 줄어요.
데이터 효율사전학습 표현을 활용해 적은 예시로 적응해요.

원문은 2012년부터 2019년 사이 AlexNet 수준 ImageNet 성능을 얻는 데 필요한 계산량이 약 44배 줄었고, 이 개선 속도가 약 16개월마다 절반으로 줄어드는 수준이었다고 설명해요. 이는 하드웨어 발전만이 아니라 알고리즘 발전이 효율을 크게 끌어올렸다는 증거예요.

3.7 Compute Efficiency: 컴퓨트 효율

컴퓨트 효율은 하드웨어와 계산 자원을 얼마나 효과적으로 쓰는지를 다뤄요. 단순히 빠른 칩을 사는 문제가 아니라, 에너지, 처리 속도, 메모리, 병렬화, 지속가능성을 함께 보는 문제예요.

3.7.1 CPU에서 AI 가속기까지

초기 머신러닝은 CPU 중심으로 돌아갔어요. CPU는 복잡한 순차 작업에는 강하지만, 신경망의 대규모 행렬 연산처럼 반복적이고 병렬적인 계산에는 한계가 있어요.

딥러닝이 커지면서 GPU가 핵심이 되었어요. CPU가 수 개에서 수십 개의 강력한 코어를 가진다면, 고성능 GPU는 훨씬 많은 단순 병렬 연산 유닛을 사용해 행렬 계산을 대량으로 처리해요. 원문은 NVIDIA H100이 16,000개가 넘는 CUDA 코어를 가진다고 설명해요.

또 TPU 같은 전용 가속기는 신경망에 자주 등장하는 연산과 데이터 타입에 맞춰 설계되어 컴퓨트 효율을 높였어요.

원문은 AI 학습에 쓰인 계산량이 2012년부터 2019년까지 약 300,000배 증가했고, 이 기간 동안 약 3.4개월마다 두 배가 되는 속도였다고 설명해요. 이는 전통적인 Moore의 법칙보다 훨씬 빠른 증가예요.

3.7.2 지속가능성과 에너지 인식

컴퓨트 효율은 환경 문제와도 직접 연결돼요. 대규모 데이터센터 전력 사용량은 빠르게 증가할 수 있고, 원문은 최악의 시나리오에서 2030년 전력 소비가 8,000TWh를 넘을 수 있다는 전망을 소개해요.

여기서 중요한 개념이 Jevons Paradox예요. 어떤 기술이 더 효율적이 되면, 한 번 사용하는 비용은 줄지만 사용량이 폭증해 전체 소비가 오히려 늘 수 있다는 뜻이에요.

AI에서도 같은 일이 생길 수 있어요.

모델 1회 실행 비용 10배 감소

서비스가 더 많은 곳에 배포됨

총 실행 횟수가 100배 증가

전체 에너지 소비는 오히려 증가할 수 있음

따라서 컴퓨트 효율은 “한 번 실행을 싸게 만들기”에 그치면 안 돼요. 총 사용량, 배포 규모, 에너지 출처, 운영 정책까지 함께 고려해야 해요.

3.7.3 분산 학습과 병렬화

대형 모델은 한 장치에 들어가지 않기 때문에 여러 장치로 나누어 학습해요.

방식설명
모델 병렬화모델의 일부를 여러 장치에 나누어 올려요.
데이터 병렬화같은 모델 복사본들이 서로 다른 데이터 배치를 처리해요.

모델 병렬화는 메모리 한계를 넘기 위해 필요하고, 데이터 병렬화는 처리량을 높이는 데 유리해요. 하지만 둘 다 통신과 동기화 비용이 생겨요. 큰 클러스터에서는 계산 장치 자체보다 장치 사이의 데이터 이동이 병목이 될 수 있어요.

3.7.4 생산 배포 패턴

원문은 실제 생산 시스템에서 여러 최적화를 조합하면 5-10배 효율 개선을 얻는 경우가 많다고 설명해요.

환경효율 전략원문에서 제시한 효과
모바일양자화, 가지치기, 증류 조합모델 크기 4-7배 감소, 지연시간 3-5배 개선
자율주행하드웨어 인식 구조, 혼합 정밀도10ms 미만의 안전 중요 지연시간 목표
클라우드 서빙동적 배치, 양자화, 증류비용 70-80% 감소, 4-5배 더 많은 요청 처리
Edge IoT극단적 압축, duty-cycle 최적화mW 전력 예산에서 장기간 배터리 수명

여기서 중요한 점은 단일 기법 하나가 아니라 조합이에요. 압축, 하드웨어 매핑, 배치, 정밀도, 런타임 최적화가 함께 맞아야 실제 효율이 나와요.

3.8 Data Efficiency: 데이터 효율

데이터 효율은 모델이 필요한 데이터의 양과 품질을 최적화하는 문제예요. 데이터가 많을수록 좋다는 말은 절반만 맞아요. 고품질 데이터는 비싸고, 라벨링은 오래 걸리고, 저장과 처리에도 비용이 들어요.

3.8.1 제한된 데이터에서 최대한 배우기

초기 머신러닝에서는 데이터셋이 비교적 작았기 때문에, 적은 데이터에서 유용한 특성을 뽑는 것이 중요했어요. 원문은 UCI Machine Learning Repository와 PCA를 예로 들어요. PCA는 데이터의 중요한 변화 방향을 찾아 차원을 줄이는 방법이에요.

딥러닝 시대에는 큰 데이터셋이 성능 향상의 핵심이 되었지만, 동시에 비효율도 커졌어요. 이를 해결하기 위해 여러 기법이 발전했어요.

기법핵심 아이디어
전이학습큰 데이터로 미리 배운 모델을 작은 작업에 맞게 조정해요.
데이터 증강기존 데이터를 회전, 자르기, 잡음 추가 등으로 다양하게 만들어요.
능동학습라벨링 가치가 큰 샘플만 골라 사람에게 물어봐요.
자기지도학습라벨 없이 데이터 내부 구조로 학습 신호를 만들어요.
커리큘럼 학습쉬운 예시부터 어려운 예시로 순서를 조절해요.

3.8.2 데이터 중심 AI

원문은 데이터 중심 AI를 중요한 전환으로 설명해요. 모델 구조를 계속 바꾸기보다, 데이터 품질, 중복 제거, 라벨 정확도, 필터링을 개선하는 접근이에요.

웹 규모 데이터는 크지만 모두 유용하지 않아요. 중복, 낮은 품질, 편향, 오류가 섞여 있을 수 있어요. 지능적인 필터링과 선별은 전체 데이터량을 줄이면서도 downstream 성능을 높일 수 있어요.

이 관점에서는 데이터 효율이 컴퓨트 효율과 알고리즘 효율을 동시에 돕습니다.

더 작고 좋은 데이터셋

학습 시간 감소

컴퓨트 비용 감소

모델이 더 잘 일반화할 가능성 증가

3.8.3 Foundation Model과 데이터 한계

원문은 foundation model이 커질수록 고품질 데이터 부족 문제가 더 중요해진다고 설명해요. 특히 언어 모델은 이미 공개 웹 텍스트를 대규모로 사용했기 때문에, 단순히 더 많은 데이터를 추가하는 방식이 점점 어려워질 수 있어요.

TinyML에서도 데이터 품질은 중요해요. 아주 작은 장치에서 동작하는 모델은 데이터가 조금만 치우쳐도 실제 환경에서 실패할 수 있어요. 따라서 데이터 효율은 큰 모델뿐 아니라 작은 모델에도 핵심이에요.

3.9 Real-World Efficiency Strategies: 배포 환경별 전략

원문은 효율성 전략이 배포 환경에 따라 달라진다고 강조해요.

환경자원 상황우선순위
클라우드상대적으로 자원이 많지만 비용이 누적돼요.처리량, 확장성, 비용 효율
엣지현장 장치에서 바로 처리해야 해요.낮은 지연시간, 연결 독립성, 전력
모바일사용자 기기에서 동작해요.배터리, 발열, 응답성, 모델 크기
TinyML마이크로컨트롤러급 자원이에요.극소 메모리, 초저전력, 작은 모델

효율적인 시스템은 배포 규모를 키우면서도 에너지 낭비와 비용을 줄일 수 있어요. 원문은 효율성과 지속가능성이 서로 강화되는 피드백 루프를 설명해요.

효율 개선

더 넓은 배포 가능

단위 요청당 에너지와 비용 감소

지속가능성 요구가 다시 효율 개선을 압박

단, 앞에서 본 Jevons Paradox 때문에 총 사용량이 늘어나는 효과도 함께 감시해야 해요.

3.10 Efficiency Trade-offs and Challenges: 효율성의 충돌

세 효율 축은 협력할 수 있지만, 현실에서는 자주 충돌해요.

3.10.1 알고리즘 효율 vs 컴퓨트 요구

모델을 작고 단순하게 만들면 메모리와 계산량은 줄어요. 하지만 복잡한 작업에서는 정확도가 떨어질 수 있어요. 이를 보완하려고 더 긴 학습, 더 정교한 전처리, 더 복잡한 학습 절차를 쓰면 다른 비용이 늘어날 수 있어요.

3.10.2 컴퓨트 효율 vs 실시간 요구

컴퓨트 효율은 자원 사용을 줄이고 싶어 하지만, 실시간 시스템은 즉시 처리해야 해요. 자율주행 차량은 카메라, LiDAR, 레이더 데이터를 빠르게 처리해야 하므로 강력한 가속기가 필요하고, 이는 전력과 비용을 늘릴 수 있어요.

3.10.3 데이터 효율 vs 일반화

작고 잘 선별된 데이터셋은 학습 비용을 줄일 수 있어요. 하지만 다양성이 부족하면 보지 못한 상황에서 모델이 약해질 수 있어요. 작은 IoT 장치가 다양한 환경 조건을 모두 겪어야 한다면, 데이터 축소가 edge case를 놓치게 만들 수 있어요.

정리하면 다음과 같아요.

줄이고 싶은 것위험
모델 크기표현력과 정확도 감소
계산량실시간 성능 부족 또는 품질 저하
데이터량다양성 부족과 일반화 실패
전력 사용지연시간 증가 가능

3.11 Strategic Trade-off Management: trade-off 관리 전략

효율성의 우선순위는 배포 환경에서 출발해야 해요.

환경우선순위 판단
Mobile ML배터리와 발열이 중요하므로 컴퓨트 효율이 핵심이에요.
Cloud ML확장성과 처리량이 중요하고 운영 비용도 함께 봐야 해요.
Edge ML낮은 지연시간과 현장 안정성이 중요해요.
TinyML알고리즘 효율과 데이터 효율이 특히 중요해요.

3.11.1 추론 시점의 동적 자원 배분

모든 입력에 같은 양의 계산을 쓸 필요는 없어요. 쉬운 요청은 작은 모델로 처리하고, 어려운 요청만 큰 모델이나 추가 계산으로 넘길 수 있어요.

예를 들어 클라우드 영상 분석 시스템은 일반 상황에서는 가벼운 모델을 쓰고, 위험 이벤트가 감지될 때 더 정밀한 모델을 사용할 수 있어요. 모바일 음성 비서는 간단한 명령은 가볍게 처리하고, 복잡한 요청에서만 더 많은 계산을 쓸 수 있어요.

하지만 동적 자원 배분에는 감시와 제어가 필요해요. 더 많은 계산이 항상 큰 성능 개선으로 이어지지는 않고, 고성능 계산을 쓸 수 있는 사용자와 그렇지 못한 사용자 사이의 격차도 생길 수 있어요.

3.11.2 End-to-End 공동 설계와 자동화

효율적인 시스템은 모델, 하드웨어, 데이터 파이프라인, 런타임을 따로 최적화해서 만들어지지 않아요. 전체가 서로 맞아야 해요.

구성요소함께 맞춰야 하는 이유
모델 구조하드웨어가 빠르게 처리할 수 있는 연산이어야 해요.
하드웨어모델이 쓰는 정밀도와 sparse 연산을 지원해야 해요.
데이터 파이프라인학습 장치가 데이터를 기다리느라 놀지 않아야 해요.
런타임배치, 캐시, operator fusion이 실제 성능을 좌우해요.

AutoML과 NAS는 이런 탐색을 자동화하는 도구예요. AutoML은 모델 구조, 하이퍼파라미터, 전처리를 탐색하고, NAS는 특정 하드웨어나 배포 조건에 맞는 신경망 구조를 찾을 수 있어요.

3.11.3 측정과 모니터링

효율성은 한 번 측정하고 끝나는 값이 아니에요. 운영 중 데이터 분포가 바뀌고, 모델이 업데이트되고, 인프라가 바뀌면 효율도 변해요.

따라서 생산 시스템에서는 다음 지표를 계속 관찰해야 해요.

지표왜 보나요?
latency사용자가 기다리는 시간을 확인해요.
throughput같은 시간에 처리하는 요청 수를 봐요.
energy전력과 배터리 영향을 봐요.
memory배포 가능성과 안정성을 봐요.
cost per request서비스 규모가 커질 때 비용을 예측해요.
accuracy 또는 quality효율화가 품질을 망치지 않는지 봐요.

3.12 Engineering Principles for Efficient AI: 시스템 전체를 보는 원칙

원문은 효율성이 파이프라인 전체에서 나와야 한다고 설명해요.

데이터 수집

전처리와 선별

모델 학습

하드웨어에 맞춘 최적화

배포와 추론

운영 중 모니터링

데이터 수집 단계에서 중복과 품질을 관리하면 학습 비용이 줄고 모델 설계가 쉬워져요. 반대로 데이터 다양성이 부족하면 나중에 모델 복잡도나 추가 학습으로 보완해야 해요.

모델 학습 단계에서는 배포 하드웨어를 미리 고려해야 해요. 클라우드용 모델은 정확도와 확장성을 더 중시할 수 있지만, 엣지용 모델은 크기와 전력 제약을 반드시 고려해야 해요.

배포와 추론 단계에서는 플랫폼 특성이 중요해요. GPU는 병렬 행렬 연산에 강하고, TPU는 특정 신경망 연산에 최적화되어 있으며, 마이크로컨트롤러는 낮은 전력으로 제한된 작업을 수행해요.

연구 단계와 생산 단계의 우선순위도 달라요. 연구에서는 성능 탐색이 먼저일 수 있지만, 생산에서는 비용, 안정성, 지연시간, 모니터링이 중요해요.

3.13 Societal and Ethical Implications: 사회적, 윤리적 의미

효율성은 기술 문제이면서 사회 문제예요.

3.13.1 형평성과 접근성

효율적인 AI는 더 적은 자원으로 AI를 사용할 수 있게 하므로 접근성을 높일 수 있어요. 스마트폰 진단 도구, 저전력 환경 모니터링, 모바일 NLP 같은 사례가 가능해져요.

하지만 효율화 기술 자체도 자원을 가진 조직에 집중될 수 있어요. 원문은 GPT-4나 Gemini Ultra 같은 최첨단 모델 학습에는 수천만에서 수억 달러 규모의 계산 자원이 필요할 수 있다고 설명해요. 또한 전 세계 AI 컴퓨팅 역량이 소수 국가에 집중되어 있다는 연구도 소개해요.

즉 효율성은 접근성을 넓힐 수 있지만, 고급 하드웨어와 데이터, 최적화 기술을 가진 집단만 효율성 이득을 독점하면 격차가 커질 수 있어요.

데이터 효율도 마찬가지예요. 저자원 언어는 학습 데이터가 부족해 성능 격차가 생기기 쉬워요. 오픈 데이터셋, 사전학습 모델 공유, 경량 배포 도구는 이런 격차를 줄이는 데 중요해요.

3.13.2 혁신과 효율의 균형

효율성은 검증된 방법을 개선하는 방향으로 연구를 몰고 갈 수 있어요. 가지치기, 양자화, 증류는 기존 구조를 더 잘 쓰는 접근이에요. 반대로 완전히 새로운 아이디어는 초기에 비효율적이고 비용이 많이 들 수 있어요.

원문은 이 긴장을 단순한 대립으로 보지 않아요. 큰 실험은 새로운 가능성을 열고, 효율화는 그 가능성을 실제 배포 가능한 형태로 만들어요.

따라서 적용 시스템에서는 엄격한 효율성이 필요할 수 있고, 탐색 연구에서는 때로 비효율적인 실험을 감수해야 할 수 있어요. 중요한 것은 어떤 상황에서 무엇을 우선할지 명확히 하는 거예요.

3.13.3 최적화의 한계

원문은 No Free Lunch 정리를 통해 어떤 최적화 방법도 모든 문제에서 항상 최고일 수 없다고 설명해요. 최적화 기법의 효과는 문제별로 달라요.

예를 들어 모델 압축은 처음에는 큰 이득을 줄 수 있어요. 하지만 어느 수준을 넘으면 정확도를 유지하기 위해 복잡한 재학습, 하드웨어별 튜닝, 추가 검증이 필요해져요. 그때부터는 얻는 이득보다 비용이 더 커질 수 있어요.

데이터셋 축소도 마찬가지예요. 처음에는 중복 제거와 품질 개선으로 효율이 좋아지지만, 너무 줄이면 다양성이 사라져 일반화가 약해질 수 있어요.

3.13.4 Moore의 법칙 사례

원문은 Moore의 법칙을 최적화 한계의 비유로 사용해요. 반도체에서 처음에는 더 많은 부품을 한 칩에 넣을수록 부품당 비용이 줄었어요. 하지만 너무 많이 집적하면 열, 신호 간섭, 제조 복잡도가 증가해 비용이 다시 올라가요.

이 곡선은 ML 최적화와 닮았어요.

초기 최적화

큰 비용 절감, 작은 성능 손실

점점 더 강한 최적화

성능 복구를 위한 복잡한 기법 필요

추가 이득보다 엔지니어링 비용이 커질 수 있음

좋은 엔지니어링은 끝까지 쥐어짜는 것이 아니라, 어느 지점에서 “충분히 좋다”고 판단할지 정하는 일이기도 해요.

3.14 Fallacies and Pitfalls: 흔한 오해와 함정

원문은 효율적인 AI를 설계할 때 빠지기 쉬운 함정을 정리해요.

오해 또는 함정왜 위험한가요?
효율화는 모든 지표를 동시에 개선한다한 지표 개선이 정확도, 지연시간, 메모리, 개발 복잡도를 악화할 수 있어요.
스케일링 법칙은 모든 크기에서 선형 예측을 해준다극단적 규모에서는 하드웨어, 데이터, 구조 병목으로 예측이 깨질 수 있어요.
엣지는 클라우드의 작은 버전이다엣지는 실시간성, 전력, 발열, 연결 불안정성이라는 질적으로 다른 제약이 있어요.
FLOPs나 매개변수만 줄이면 충분하다실제 성능은 메모리 접근, 데이터 이동, 런타임 overhead, 하드웨어 매핑에 좌우돼요.

특히 FLOPs만 보는 함정이 중요해요. FLOPs가 적은 모델이라도 메모리 접근이 불규칙하거나 하드웨어가 해당 연산을 잘 처리하지 못하면 실제 지연시간은 더 나쁠 수 있어요.

3.15 Summary: 원문의 결론

원문의 결론은 다음과 같이 정리할 수 있어요.

결론설명
효율성은 전략적 설계 원칙이에요단순 최적화가 아니라 접근성, 지속가능성, 혁신을 가능하게 해요.
스케일링 법칙은 유용하지만 한계가 있어요자원 배분을 예측하게 해주지만, 포화와 breakdown도 드러내요.
세 효율 축은 서로 얽혀 있어요알고리즘, 컴퓨트, 데이터 효율은 따로가 아니라 함께 최적화해야 해요.
배포 환경이 우선순위를 정해요클라우드, 엣지, 모바일, TinyML은 서로 다른 제약을 가져요.
자동화와 공동 설계가 중요해요복잡한 trade-off를 다루려면 end-to-end 관점이 필요해요.
사회적 영향까지 봐야 해요효율성은 탄소, 비용, 접근성, 연구 불평등과 연결돼요.

마지막으로 이 장은 효율적인 AI를 “성능을 희생하는 축소판”으로 보지 않아요. 오히려 성능, 비용, 에너지, 데이터, 하드웨어, 사회적 접근성을 함께 설계하는 성숙한 시스템 공학으로 봐요.

복습 질문

  1. Efficient AI를 단순히 “빠른 AI”라고 설명하면 왜 부족한가요?
  2. 스마트폰 사진 검색 앱에서 알고리즘 효율, 컴퓨트 효율, 데이터 효율은 각각 어떤 문제를 해결하나요?
  3. 모델 크기만 키우고 데이터 크기를 늘리지 않으면 어떤 문제가 생길 수 있나요?
  4. 스케일링 법칙의 식 (\mathcal{L}(N) = A N^{-\alpha} + B)에서 (B)는 어떤 의미인가요?
  5. compute-optimal resource allocation이 “큰 모델이 항상 답”이라는 생각과 어떻게 다른가요?
  6. 가지치기, 양자화, 지식 증류는 각각 어떤 방식으로 알고리즘 효율을 높이나요?
  7. FLOPs가 줄어도 실제 시스템 속도가 빨라지지 않을 수 있는 이유는 무엇인가요?
  8. 모바일, 엣지, TinyML, 클라우드 환경에서 효율성 우선순위가 어떻게 다른가요?
  9. Jevons Paradox가 AI 효율화 논의에서 중요한 이유는 무엇인가요?
  10. 효율적인 AI가 접근성과 지속가능성에 기여할 수 있지만, 동시에 불평등을 키울 수도 있는 이유는 무엇인가요?