'주권 AI' 추진 걸림돌 '에너지·물 먹는 하마' 어떻게 풀까
[AI 잠재적 위험]①가동에 필요한 에너지
AI 훈련에 막대한 양의 전기·냉각수 소요
인류 최대 과제인 지구온난화 당면한 AI
좁은 국토, 부족한 식수, 최고 밀도 원전
데이터센터 입지 재생 에너지 활용 필요
딥시크 추론 모델 'R1' 방식 채용 바람직
(본 기사는 음성으로 들을 수 있습니다.)
대부분의 우리 언론이나 유튜브에는 빠른 속도로 발전해 가는 인공지능(AI)의 성능에 대한 찬사가 넘쳐난다. 하지만 AI는 인류 최대의 문제인 지구온난화에 당면해 있다. 또한 생존본능을 가진 AI가 인간의 통제를 벗어날 수 있는 위험성도 우려를 낳고 있다. 물론 AI의 성능 발전은 부정할 수 없는 현실이다. 예를 들어 딥마인드가 개발한 단백질 구조 예측 AI 시스템 '알파폴드(AlphaFold)'의 믿기 어려운 성능은 이론화학계에 오랫동안 숙제로 남아 있던 문제를 단번에 해결했다.
주요 관심사인 거대언어모델(Large Language Model: LLM)의 놀라운 성능이 어디서 기인하는 것인지 살펴보자. 지피티(GPT) 등 AI 언어 모델의 기반이 되는 '트랜스포머 모델'이 무슨 마법 같은 알고리즘이라고는 생각지 않는다. 언어철학자 비트겐슈타인(Wittgenstein)은 이미 "원칙적으로 언어에 숨겨진 것은 없다"고 규정했다. LLM은 언어의 의미가 문맥과 사용 환경에 의해서 명확히 규정된다는 비트겐슈타인의 이런 관점을 구현해 훈련을 시킨 결과로 보인다.
대체 마법은 어디에 있는가? 훈련에 사용된 방대한 양의 데이터에 있다고 생각된다. 그런 점에서, LLM의 성능은 본질적으로 엄청난 양의 데이터와 이를 뒷받침하는 거대 자본의 결과라 할 수 있다. 이러한 사실은, 미국과 중국에 전 세계의 AI 생태계가 종속될 수 있다는 위기감을 갖게 한다.
이러한 면에서, 전문가들의 공식적 보고서에 기초하여 AI의 현주소와 위험을 함께 알아보는 것은 큰 의미가 있다. '컴퓨터 과학계의 노벨상'이라고 불리는 튜링상 수상자인 캐나다의 요수아 벤지오(Yoshua Bengio)를 비롯한 96명의 AI 전문가가 2025년 1월에 출판한 'AI의 안전성에 대한 국제적 보고서(International AI Safety Report)'는 이와 관련된 중요 내용을 담고 있다. 보고서 저자 중에는 OECD, EU, UN에서 추천한 30개국의 전문가들이 포함되어 있다. 보고서는 주로 일반적 목적의 범용 AI가 초래할 수 있는 위험의 종류와 이를 관리하는 기술적 방법을 기술하고 있다. 2024년 5월 'AI 서울회의'에서 중간보고서를 발표하기도 했다.
보고서는 최신 AI의 성능에 대해 분석했다. 범용 AI 중 가장 수준 높은 엔트로픽(anthropic) 2024, Open AI 2024 등이 대상이다. 이 보고서는 2024년 12월 5일 완성되었으나, 그 후 Open AI에 의해 새로 발표된 모델인 'o3'의 성능이 추가됐다. o3는 프로그램 작성, 추상적 추론, 과학적 추론 등에서 이전의 어떤 모델보다 훨씬 성능이 뛰어나다. 벤지오는 이 모델이 많은 면에서 각 분야의 전문가를 능가하며, 이는 AI의 능력 확대가 더욱 가속되고 있다는 증거라고 말한다.
특히 '추론 규모화(inference scaling)'를 위해 많은 계산 자원을 사용하면 전문가적 효과가 두드러진다고 한다. 예를 들어, AI 전문 기관인 '에포크(epoch) AI'의 'Frontier Math'라는 벤치마크는 AI의 수학적 추론 능력을 평가하기 위해 개발됐다. 보고서에는 문제의 수준에 대한 정확한 기술이 없지만, 회사 홈페이지에 따르면 적절한 수학 분야의 연구자가 문제를 푸는데 몇 시간에서 며칠까지 걸린다고 한다. o3가 이 문제들의 정답을 맞추는 성공률이 25%로, 이전 다른 모델들의 성공률이 2%에 이르기도 어려웠던 것을 감안하면 대단한 발전이다. 이는 일련의 '생각 사슬(Chain of Thought)'을 통해서 복잡한 추론을 수행한 결과다.
이때 사용된 o3는 같은 버전의 이름으로 일반에게 배포된 모델에 비해 훨씬 더 많은 계산을 사용하는 점을 유의할 필요가 있다. 이미 훈련에 사용된 데이터의 양은 당분간 크게 증가하기 어렵다. 이제 '추론 규모화'까지 실현된 마당에, AI의 성능에 큰 변화를 미칠 수 있는 변수가 더 있을까? 즉, 하드웨어의 발전과 무관하게 AI의 급속한 발전이 어렵지 않았는가 하는 의문이다. 이제는 수학, 과학등 세부 분야별 성능 개선과 정교화만 남은 것이 아닌가 추측할 수 있다. 'Frontier Math' 성적이 모델에 따라 크게 차이 나는 것을 확인할 수 있기 때문이다.
2025년 1월에 발표된 중국의 딥시크(DeepSeek) 추론 모델인 'R1'은 메모리를 효과적으로 활용해 추론 규모화에 소요되는 방대한 계산을 Open AI의 o3보다 훨씬 더 경제적으로 수행할 수 있음을 보여준다. 역설적으로, 이는 미국이 고성능 그래픽처리장치(GPU)의 대중국 수출을 금지함으로 인해 개발됐다. 하지만 부유한 미국의 하이퍼스케일러들은 이런 방법에 별 관심이 없는 것으로 보인다. 딥시크 충격이 발생했을 때 잠시 엔비디아의 주가가 폭락했지만, 어느새 원상회복을 넘어 사상 최고가를 기록하고 있다. 딥시크의 방법을 따른다면 엔비디아 GPU에 대한 수요가 급격히 줄 수 밖에 없는데, 그런 일이 일어나고 있지 않다는 말이다.
그러나 이는 우리에게는 매우 중요한 문제다. 미국의 하이퍼스케일러들처럼 최신의 GPU를 거의 무제한으로, 그리고 이를 구동하기 위해 에너지와 식수급 물을 거의 무한정으로 사용할 수는 없기 때문이다. 따라서 우리 AI업계는 '주권(sovereign) AI'를 추구하는데 이런 한정된 자원을 고려하여, 딥시크의 전략을 크게 활용해야 할 필요가 있다.
구글이 칠레에 건설 예정인 데이터센터 가동에 지역 주민의 식수를 지나치게 사용할 것이란 비판이 있었다. 미국 언론인 카렌 하오(Karen Hao)는 이를 자신의 책 '인공지능의 제국(Empire of AI)'에서 식민지 정책에 비유해 경고했다. 더욱이 엔비디아의 CEO인 젠슨 황(Jesen Huang)이 언급한 바처럼, 거의 2년 주기로 전력 소모가 더 큰 GPU를 출시하고 있기 때문에 더욱 그러하다.
요약하면, 하이퍼스케일러들이 이루고 있는 AI의 놀라운 발전은 방대한 양의 데이타, 수많은 고성능 GPU, 막대한 에너지와 식수를 사용한 결과이다. 이는 '주권 AI'를 실현하기 위해 우리가 취할 수 있는 방법이 될 수 없다. 국토가 좁아 식수가 풍부하지 못하며, 세계 최고 밀도의 원자력 발전소를 가동하고 있는 점에서 특히 그러하다.
데이터센터의 냉각에 사용하는 식수는 최대한 재활용하는 방법을 사전에 마련해야 한다. 한 대기업이 데이터센터를 건립한다는 얘기가 들린다. 데이터센터의 위치는 안전하고 풍부한 재생 에너지를 최대한 활용할 수 있도록 결정돼야 한다. 원자력 발전은 데이터센터에 활용되기보다는 100~150년 주기로 일어난다는 일본 난카이 대지진에 더 철저히 대비해야 한다.