인공지능(AI)과 친환경 지구의 ‘불편한 동거’

입력
2024.04.27 14:00
데이터센터 운영에 막대한 전기와 물 소요
올트먼 오픈AI CEO, 재생에너지 스타트업 투자
생성형 AI가 직접 해법 찾아낼 것이란 기대도
[아로마스픽(90)]4.22~26

편집자주

4차 산업 혁명 시대다. 시·공간의 한계를 초월한 초연결 지능형 사회 구현도 초읽기다. 이곳에서 공생할 인공지능(AI), 로봇(Robot), 메타버스(Metaverse), 자율주행(Auto vehicle/드론·무인차), 반도체(Semiconductor), 보안(Security) 등에 대한 주간 동향을 살펴봤다.


“에너지 분야에서 획기적인 돌파구가 없다면 인공지능(AI) 시대를 실현할 방법은 없다.”

대안 마련이 시급하단 얘기였다. 사실상 AI 시너지 극대화의 선결 과제를 에너지 효율성으로 단정하면서다. 지난 2022년 11월 말 출시, 생성형 AI 시대를 개막한 ‘챗GPT 아버지’ 샘 올트먼 오픈AI 최고경영자(CEO)가 단언한 경고성 메시지다. 그는 지난 1월 중순, 스위스 다보스 ‘세계경제포럼(WEF)’에 참석해 블룸버그통신과 가진 인터뷰에서 “(향후 생성형 AI 시대엔) 예상보다 훨씬 더 많은 전력이 소비될 것”이라며 우려한 현실적인 진단이다. 그는 이어 “핵융합이나 저렴한 태양열 발전, 저장시설들은 환경친화적인 측면에서 (생성형 AI 서비스에) 희망적이다”라며 “이 분야에 더 많은 투자가 이뤄져야 한다”고 덧붙였다. 이로부터 3개월여 만인 지난 22일(현지시간) 월스트리트저널(WSJ)에선 유명 벤처캐피털인 앤드리슨 호로비츠와 함께 재생에너지 스타트업 엑소와트에 2,000만 달러(한화 약 280억 원)를 투자한 올트먼 CEO의 소식이 전해졌다. 그의 이번 투자는 향후 AI 데이터센터 구동에 필요한 에너지 확보 차원으로 풀이된다. WSJ에 따르면 빅데이터 센터에 필요한 전력 수요 해결을 위해 설립된 엑소와트에선 저렴한 비용으로 24시간 에너지 저장이 가능한 모듈 개발에 성공했다. 올트먼 CEO는 앞선 2021년 당시 핵융합 발전으로 전기 에너지를 생산하는 스타트업 헬리온에 3억7,500만 달러(5,178억 원)를 투자한 바 있다.

생성형 AI 열풍 이면에 드리운 친환경 이슈가 갈수록 뜨거운 감자로 부각되고 있다. 방대한 학습 훈련 기반의 생성형 AI 서비스엔 최첨단 데이터센터 운영이 필수적인데, 이 센터에 필요한 에너지 문제 해결 또한 간단치 않아서다. 특히 생성형 AI 서비스 업데이트 속도가 가파르게 진행될수록 데이터센터 운영 에너지에 대한 부담 역시 커지고 있다. 최근 공개된 국제에너지기구(IEA) 자료에 따르면 지난 2022년 당시 460테라와트시(TWh)로 집계됐던 전 세계 데이터센터 전력 소비량은 2026년엔 620~1,050TWh까지 급증할 전망이다.

'전기 먹는 하마' AI, 친환경 글로벌 트렌드에 배치된 부작용 차단 부담↑

당장, ‘전기 먹는 하마’로 유명한 AI를 감당하기엔 전력 사정이 녹록치 않다. 지난 2월 말, IEA 자료를 인용한 블룸버그통신 보도에 따르면 세계 전력 소비에서 데이터센터와 전송망 비중은 많게는 각각 1.5%에 달했다. 이들의 전력 총합은 브라질의 연간 이산화탄소 배출량에 근접한 수준이다. 1개의 AI 모델 훈련에 필요한 전기의 경우엔 일반 가정 100가구 연간 사용량을 초과한다는 게 IEA의 추산이다. 생성형 AI 핵심인 거대언어모델(LLM)의 그래픽처리장치(GPU) 전력 사용량이 일반적인 디지털기기에 사용되는 중앙처리장치(CPU)보다 월등해서다.

더 큰 문제는 글로벌 트렌드인 친환경과 배치된 부작용 차단에 있다. 무엇보다 생성형 AI의 기술 진화 속도가 워낙 빠르다 보니, 이 과정에서 파생된 역효과를 차단할 물리적인 시간이 부족한 형편이다. 생성형 AI의 최대 수혜주인 엔비디아의 젠슨 황 CEO는 최근 “가속 컴퓨팅과 생성형 AI가 임계점에 도달했다”며 “세계적으로 기업이나 산업, 국가 전반에 걸쳐 AI칩 수요가 급증하고 있다”고 전했다. 지난 1993년에 설립된 엔비디아는 생성형 AI 핵심인 GPU 전문 제조업체로, 세계시장에서 70% 안팎의 점유율을 차지하고 있다.

이에 대해 “AI 컴퓨팅에 의해 광범위한 기후 위험이 초래될 것”이라며 “화석연료에서 청정에너지 기반의 전략으로 크게 바뀌지 않는다면 (기후) 상황은 더 악화될 것”이라고 전한 블룸버그통신의 우려에 힘이 실린 배경이다.

실제 초대형 데이터센터를 소유한 구글이나 마이크로소프트(MS), 아마존 등이 탄소 저감을 포함한 기후 대응에 나섰지만 대세인 생성형 AI 열풍으로 여의치 않은 게 현실이다. 업계 관계자는 “생성형 AI와 직접적으로 연관된 글로벌 기업들이 이산화탄소 배출 감소를 위해 태양광이나 풍력까지 활용하면서 친환경에너지 사용에 적극적으로 나서고 있지만 생성형 AI 사용이 폭증한 현시점에 역부족인 것도 사실이다”라고 귀띔했다.

원활한 AI용 데이터센터 운영에 막대한 양의 냉각수 필요...물 부족 사태 초래

생성형 AI의 태생적인 갈증 해소 또한 예삿일은 아니다. 생성형 AI 근간인 데이터센터의 원활한 운영을 위해선 센터 내부의 열을 식히는 냉각수가 필수적인데, 이 냉각수 물량이 만만치 않아서다. 생성형 AI 대중화에 따른 데이터센터의 급증세를 감안하면 환경 파괴의 요인으로 지목될 냉각수도 늘어날 게 뻔한 상황이어서 고민은 깊어질 수 밖에 없다.

이와 관련, 미 캘리포니아주립대 리버사이드캠퍼스 연구진은 최근 유명 국제학술지인 네이처지에 발표한 논문을 통해 "점점 심해지는 담수 부족 위기와 길어지는 가뭄, 빠르게 노후화되는 수자원 인프라 등과 관련해 AI 모델의 비밀스러운 '물 발자국'을 알아내고 대응할 중요한 시기다"라고 지적했다. 오픈AI의 생성형 AI인 챗GPT-3 버전에서 10∼50개 질문에 답변하려면 500밀리리터(㎖) 가량의 물이 사용되고, 이 보다 더 개선된 성능의 챗GPT-4에선 더 많은 물이 필요할 것이란 자명한 예측을 염두에 둔 염려였다.

상황이 이렇다 보니 일각에선 AI 데이터센터 냉각용 수요로 지구상에서 사라지는 물의 양이 2027년까지 42억∼66억 세제곱미터(㎥)에 달할 것이란 관측까지 나온다. 이 규모는 연간 영국 물 소비량의 절반 수준이다. 고사양 AI용 데이터센터 확충에 나선 주요 기업들의 2022년 기준, 물 사용량도 MS는 전년대비 34%, 구글은 22%, 메타(옛 페이스북)는 3%씩 늘었다.

급기야 생성형 AI에서 비롯된 물 문제는 법정 공방으로도 이어지고 있다. 미국 아이오와주와 웨스트니모인 지역 주민들은 최근 오픈AI를 상대로 진행한 소송에서 챗GPT-4 버전 테스트 마감 1개월 전, 해당 지역의 전체 물 사용량의 6%가 사라졌다고 주장했다.

이와 관련, 오픈AI 측은 "생성형 AI의 최신 버전 테스트에 물이 많이 드는 것을 인정하고 효율성 개선 노력도 하고 있다"며 "(생성형 AI의) 거대언어모델(LLM)이 해법을 찾는 데 도움을 줄 수 있을 것으로 믿는다"고 전했다.


허재경 선임기자