본문 바로가기

Deep learning

대규모 언어모델의 Training compute / 구성요소

반응형

 

"Training compute"라는 용어는 제와 같은 대규모 언어 모델(LLMs)에 있어서 훈련 단계 동안 사용되는 계산 리소스와 파워를 의미합니다. 대규모 언어 모델을 훈련시키는 과정은 방대한 양의 데이터를 복잡한 신경망 구조를 통해 처리하는 것을 포함하며, 이 과정은 상당한 계산 능력을 요구합니다. 

 

이런 Training compute에 포함될 요소들에는 무엇이 있을지 알아보겠습니다. 

 

 

 

 

 

Training compute

 

논문 마다 Training compute를 넓게 또는 좁게 해석하기도 한다. 그 중 대표적인 구성 요소들을 알아보려고 한다.

 

 

나날이 커지는 모델 사이즈

 

1. 프로세서 processor 

 

프로세서란 거대한 언어 모델을 학습시키는 데 사용되는 GPU나 TPU를 비롯한 전문 하드웨어들을 의미합니다. GPU는 그래픽 처리 장치이고 TPU는 텐서 처리 장치의 줄임말입니다. 이러한 프로세스는 인공지능 모델의 훈련에 필수적인 대규모 병렬 처리 작업을 처리하기 위해 필요합니다. 

 

특히 LLMs를 훈련시킬 때는 단지 한 두 개의 GPU를 사용하는 것이 아니라 거대하면 거대할 수록 수백 개 아니 수천 개의 GPU를 사용해야 할 수 있습니다. 이러한 거대한 규모를 유지할 때 필요한 프로세서와 그 규모는 언어 모델의 훈련 리소스를 의미하는 단위가 될 수 있습니다. 

 

 

2. 데이터셋 Dataset 

 

데이터셋 역시 Training compute의 단위가 될 수 있습니다. 데이터셋을 모두 쓰지 않고 그 서브 집합 (Subset)만 쓰는 경우 전체 데이터셋을 사용하는 것보다 성능이 낮습니다. 따라서 데이터를 얼마만큼을 동원해서 모델을 훈련하는데 사용했는지 확인하는 것도 계산 리소스와 필요한 자원을 측정하고 비교하는 단위가 될 수 있습니다. 

 

 

 

3. 에너지 소비 Energy Consumption 

 

거대한 대규모 언어 모델들은 항상 뒤따라오는 주제 중 하나가 에너지입니다. 수천 개의 GPU를 작동시키는 것은 상당한 전기 소비로 이어지며 이로 인한 상당한 탄소 배출이 일어나게 됩니다. 따라서 자연 친화적인지, 한 모델을 훈련시키는데 얼마나 많은 전기 소모가 필요한지를 측정하는 것도 필요한 리소스를 비교하고 분석하는데 도움이 됩니다. 

 

4. 비용 cost 

 

마지막으로 비용이 있습니다.  훈련할 때 필요한 계산 비용은 상당하고, 물리적인 하드웨어 구비 비용뿐만 아니라 에너지, 하드웨어를 둘 인프라에 대한 유지 관리 비용, 훈련 과정에서 개발하고 모니터링하는데 드는 인력에 대한 비용 모두 '비용'이라는 단어에 포함될 수 있습니다. 이런 비용 역시 모델의 능력과 성능에 따르는 계산 리소스와 필요한 자원을 가늠하는데 도움이 될 수 있습니다. 

 

 

결론 

 

훈련 계산은 LLMs의 개발에 있어 중요한 요소이며, 모델의 능력과 성능은 훈련 중 사용된 계산 리소스의 규모와 품질에 직접적으로 관련이 있습니다. 모델이 복잡성과 크기에서 성장함에 따라 계산 요구 사항도 증가하며, 이는 새로운 세대의 LLMs를 설계하고 배포하는 데 있어 중심적인 고려 사항이 됩니다.

 

엄청난 규모의 데이터셋 사이즈

 

 

계산 리소스에 대한 고려는 꾸준히 관심을 받고 있다. Training Compute-Optimal Large Language Models 라는 논문에서는 데이터셋의 최적치를 찾는 것이 중요하다는 점을 시사하고 있다. 

 

기존 연구에서는 일반적으로 모델의 크기가 증가함에 따라 데이터를 크게 확장하는 것이 중요하다고 생각했습니다. 하지만 이 논문에서는 대규모 언어모델은 데이터보다 모델의 크기를 늘리는 것이 성능을 끌어올리는데 도움이 된다고 주장했습니다.   모델이 작은 모델에 비해 적은 데이터로도  나은 성능을 달성할  있다는 점을 보여주었고 데이터 크기를 키워오는 접근 방식에 대해 새로운 패러다임을 제안했었습니다.

 

이렇게 training compute에 대한 논문은 리소스를 효율적으로 사용하면서 성능을 끌어 올리기 위해 더 필요한 부분이 무엇인지 꾸준히 연구하고 있습니다. 좀 더 낮은 컴퓨터 리소스로도 연구를 통해서는 더 효율적으로 성능을 끌어올릴  있습니다.

 

따라서 대규모 언어 모델 개발에 대한 training compute 그리고 그 자원의 효과성에 대한 연구는 필요하며, 그 균형을 최적화하기 위해 노력해야 합니다. 

 

 

 

 

반응형