상세 컨텐츠

본문 제목

[9월의 AI 트렌드] GPT-4가 단어를 100개 생성하면 1.4L의 물이 소모된다?!

News/AI 트렌드

by skbd 2024. 10. 15. 11:36

본문

글: SK브로드밴드 AIX R&D팀 전혜윤 매니저

 

안녕하세요.

 

9월의 주요 AI 이슈로 돌아왔습니다!

 

GPT-4 100개의 단어를 생성할 때, 1.4L를 소모한다는 연구 결과가 나왔는데요.

 

AI가 물을 소모한다니, 그 자세한 내용이 궁금하시다구요?

 

그럼 AI가 소모하는 에너지 자원에 관한 내용과 AI 관련 다른 소식들을 세세히 알려드리겠습니다!

 


<목차>


알트먼, ‘o1’ 지나친 기대 경계… “o1은 AGI가 아니라 시작일뿐”


AI 대모’의 스타트업 공식 출범… "언어모델 뛰어넘는 ‘세계모델’ 개발할 것"


미스트랄, 개발자용 ML옵스 플랫폼 무료 개방...모델 사용료도 인하


GPT-4로 단어 100개 생성하면 최대 물 1.4리터 소모”


"2030년까지 AI 훈련 컴퓨팅 1만배 증가...병목 현상 올 때까지 AI 극적으로 발전할 것"

👉🏻 위의 목차  원하시는 주제명을 클릭하시면해당 본문으로 바로 이동할  있습니다.

 

 

 

 

알트먼o1’ 지나친 기대 경계… “o1 AGI가 아니라 시작일뿐”

 

1. Summary: 샘 알트먼 오픈AI CEO가 전날 출시한오픈AI o1’에 대해 기대치를 낮추는 발언을 했다.

o1은 인공지능 기술 개발에서는 큰 도약이지만, 일반 사용자들의 체감은 한정적일 것이라는 뜻이다.

알트먼 CEO “o1은 지금까지 우리가 만든 가장 유능하고 정렬된 모델이라며하지만 여전히 결함이 있고 제한이 있다라고 밝혔다.

처음 사용했을 때 인상이 많은 시간을 들여 사용하고 난 뒤보다 더 강하다라고 설명했다.

이 모델은 지나치게 깊이 생각하는 경향이 있어, 대부분 쿼리에는 기존 ‘GPT-4o’가 더 적합하다는 말이 있다.

또한, 비용이 GPT-4o 4배에 달한다는 것도 부담이다. 여기에 o1은 멀티모달 기능도 없는미리보기에 불과하다.

오픈AI 역시이미지 입력, 함수 호출 또는 지속적으로 빠른 응답 시간이 필요한 애플리케이션의 경우 GPT-4o GPT-4o미니 모델이 계속해서 올바른 선택이 될 것이라며, “그러나 심층적 추론이 필요하고 긴 응답 시간을 수용할 수 있는 애플리케이션을 개발하려는 경우 o1 모델이 훌륭한 선택이 될 수 있다라고 설명했다.

 

2. Implication: 오픈AI에서 GPT 모델을 지속적으로 업데이트를 하고 있으나, 사용자가 최신 모델만을 고집해서 사용해서는 안된다는 것을 보여주고 있다.

사용자는 본인의 의도에 맞는 모델을 선택해 단순한 사용의 경우 기존 GPT-4o GPT-4o 미니 모델을, 심화 추론이 필요한 작업인 경우 새로운 o1 모델을 사용하는 것이 좋아 보인다.

향후 이를 모두 통합하는 하나의 모델이 개발되는 것이 제일 좋다고 판단되며, 사용자가 개별 모델을 선택할 필요 없이 사용자의 작업 의도에 따라서 해당 작업에 적합한 모델이 자동 적용되는 프로세스가 필요하다고 생각한다.

 

3. 참고 기사: https://www.aitimes.com/news/articleView.html?idxno=163422

 

 

 

 

 

AI 대모의 스타트업 공식 출범 언어모델 뛰어넘는세계모델개발할 것

 

1. Summary: 페이페이 리 스탠포드 교수가 이끄는공간 지능스타트업 월드랩스가 2.3억 달러의 투자 유치에 성공했다.

이 회사는 LLM을 넘어, ‘대형세계모델을 개발한다고 밝혔다.

해당 회사에는 이미 제프딘, 제프리힌튼, 에릭슈미트 등 거물들이 대거 투자자로 합류했다.

이 회사의 주요 아이템은 현실의 세계를 이해하고 판단하는 공간 지능(Spatial Intelligence)을 개발, LWM을 구축하는 것이 목표이다.

현재 LLM(LMM)은 텍스트, 이미지 등을 생성하지만 현실의 3D 세계에 대한 정보는 추론하기 어렵다.

하지만 LWM은 현실 3D 세계가 어떻게 작동하는지 추론하는 능력에 집중하며, 이는 AR, MR은 물론 로봇공학 등에도 사용될 수 있다고 했다.

, 이를 통해 물리적인 세계에 대한 광범위한 추론 능력을 활성화시킬 수 있다고 밝혔다.

 

2. Implication: 페이페이 리 교수는 제프리힌튼, 앤듀르 응, 얀 르쿤, 요수아 벤지오 등과 함께 AI 분야에 큰 영향을 미친 연구자로, 주로 컴퓨터 비전 분야에서 두각을 나타냈다.

그녀가 이끄는 팀은 현재 LLM(LMM)이 우리의 일상에 큰 영향을 주고 있지만, 사람들이 꿈꾸는 진정한 AI의 모습이 되기 위해서는 실세계를 이해하는 능력이 필수적이라는 점에 주목하고 LWM을 개발하고 있다.

이러한 맥락에서 LWM AGI의 중요 구성요소로 여겨지며, 향후 AI 연구 흐름이 LLM à LMM à LWM으로 이어질지 주목할 필요가 있다.

AI의 미래는 이제 단순한 언어모델을 넘어 물리적 세계에 대한 깊은 이해와 추론 능력을 갖춘 방향으로 나아갈 것으로 기대된다.

 

3. 참고 기사: https://www.aitimes.com/news/articleView.html?idxno=163421

 

 

 

 

 

미스트랄개발자용 ML옵스 플랫폼 무료 개방...모델 사용료도 인하

 

1. Summary: 미스트랄 AI는 자사의 AI 모델을 미세조정하고 테스트할 수 있는 ML옵스 플랫폼 '라 플랫폼(la Plateforme)'을 무료로 개방했다.

이 플랫폼을 통해 개발자들은 비용 없이 AI 모델을 실험하고 프로토타입을 구축할 수 있으며, 맞춤형 모델 수요 증가를 목표로 하고 있다.

대부분의 미스트랄 모델은 오픈 소스로 제공되며, 미세조정과 배포 과정도 무료로 경험할 수 있지만 상업적 사용을 위해서는 유료 업그레이드가 필요하다.

미스트랄 AI API 가격을 50~80% 인하하며, 다양한 모델들의 가격을 줄이는 추세를 따르고 있다.

또한, ML옵스 플랫폼 개방과 동시에 새로운 소형 모델 '미스트랄 스몰 v24.09'도 공개했다.

 

2. Implication: 미스트랄 AI의 무료 ML옵스 플랫폼 개방은 AI 개발자들에게 큰 혜택을 제공하여 기술 혁신과 프로토타입 개발 속도를 높일 수 있을 것이다.

오픈 소스 및 무료 제공 정책은 미스트랄 AI의 생태계를 확장하고, 더 많은 개발자와 기업을 유치하는 중요한 전략이 될 것이다.

AI 모델의 가격 인하와 무료 계층 제공은 미스트랄 AI를 포함한 여러 기업들이 시장 점유율을 확대하고 경쟁력을 강화하는 데 도움을 줄 것으로 보인다.

 

3. 참고 기사: https://www.aitimes.com/news/articleView.html?idxno=163447

 

 

 

 

 

GPT-4로 단어 100개 생성하면 최대 물 1.4리터 소모”

 

1. Summary: UC 리버사이드 연구진의 최근 연구에 따르면, GPT-4를 사용해 100개 단어를 생성할 때 최대 1.4리터의 물이 소모되는 것으로 나타났다.

이는 AI 챗봇이 사용자 질문에 응답하기 위해 막대한 전력을 사용하고, 이를 위한 서버 냉각 과정에서 많은 물이 필요하기 때문이다.

물 사용량은 지역과 데이터센터와의 거리에 따라 다르며, 텍사스에서는 100단어 생성에 235밀리리터가,

워싱턴주에서는 1408밀리리터가 필요하며 이미지나 동영상 생성 시에는 더 많은 자원이 소모된다.

AI 모델 훈련에도 막대한 양의 물이 필요한데 예를 들어, 메타의 '라마 3' 훈련에는 2200만 리터의 물이 사용되었다.

GPT-4의 전력 소비도 상당히 높아, 미국 근로자의 10% 1년간 매주 한 번씩 사용한다고 가정할 때, 워싱턴 D.C. 전체 가구가 20일 동안 사용하는 전력량과 동일하다.

주요 AI 기업들은 이러한 문제를 인식하고 있으며, 지속 가능성과 효율성 개선을 위해 노력하고 있다고 밝혔으나 구체적인 해결책은 아직 제시되지 않았다.

 

2. Implication: 이번 연구 결과는 AI 기술의 발전이 환경에 미치는 영향을 명확히 보여준다.

AI 모델의 훈련과 운영에는 막대한 물과 전력이 필요하고 데이터센터의 자원 소비는 지역 주민들의 공공요금 상승과 환경 부담으로 이어질 수 있다.

MS AI 기업들은 신재생 에너지로 전력 수급이 어려워 핵 원전을 재가동하고 있는데 이러한 문제를 해결하기 위해 효율적인 냉각 시스템 개발, AI 모델 최적화 등 더욱 적극적인 노력을 기울여야 할 것으로 보인다.

또한, AI 기술의 환경적 영향에 대한 사회적 인식을 높이고, 사용자들도 AI 서비스를 더욱 신중하게 사용할 필요가 있다.

 

3. 참고 기사: https://www.aitimes.com/news/articleView.html?idxno=163514

 

 

 

 

 

"2030년까지 AI 훈련 컴퓨팅 1만배 증가...병목 현상 올 때까지 AI 극적으로 발전할 것"

 

1. Summary: 비영리 연구 기관 에포크 AI의 보고서에 따르면, 2030년까지 AI 모델의 규모가 현재의 1만배로 확장될 수 있는 것으로 나타났다.

에포크 연구진은 이번 시나리오를 작성하기 위해 전력, AI , 학습용 데이터, 학습 지연 시간 등 4가지 주요 제약 요소를 상세하게 시뮬레이션했다.

전력 소비는 2030년까지 현재의 200배 많은 6GW가 필요할 것으로 예상된다.

현재 계획 중인 유틸리티 성장을 감안하면 다소 빡빡하지만 2030년까지 전력 공급이 가능한 수준을봤다.

AI 칩은 성장 속도를 감안, 2030년에 AI 훈련에 2000~4억개가 투입될 것으로 예측되며, 이는 GPT-4보다 약 5만배 많은 컴퓨팅 인프라를 의미한다.

학습용 데이터는 2030년까지 모델 성장을 억제하지 않을 것으로 보이나, 5년 안에 양질의 텍스트 데이터는 바닥날 것이라고 전망했다.

텍스트보다 멀티모달 데이터와 합성 데이터의 증가에 주목했다.

마지막으로 학습 지연 시간은 모델 크기와 관련이 있어 개발 주기에 영향을 미친다.

이러한 요소들을 단순 적용하면 GPT-4보다 최대 100만배 이상의 컴퓨팅 파워까지 AI 훈련을 확대할 수 있다는 결론이 나온다.

하지만 병목 현상으로 인해 칩이 늘어나는 만큼 전력이 따라주지 못해, 종합적으로 고려하면, 10년 안에 현재 모델보다 약 1만배 확장된 2e29플롭(FLOP)의 훈련이 가능할 것으로 예측했다.

 

 

2. Implication: 에포크의 예측은 AI 기술의 급격한 발전 가능성을 보여주며, 이에 따른 사회적, 경제적 변화를 암시한다.

AI 모델의 대규모 확장은 다양한 산업 분야에서 혁신을 가속화하고, 새로운 일자리 창출과 기존 직업의 변화를 가져올 수 있다.

그러나 이러한 발전은 막대한 에너지 소비와 환경 문제를 동반할 수 있어, 지속 가능한 AI 발전 방안이 필요하다.

에포크는 기초적인 텍스트 생성에 머물렀던 GPT-2와 정교한 문제 해결 능력을 갖춘 GPT-4의 차이만큼, AI는 극적으로 발전할 것이라고 강조하였다.

 

3. 참고 기사: https://www.aitimes.com/news/articleView.html?idxno=163595

 

 

 

 

오늘 준비한 9 AI 이슈들, 어떠셨나요?

 

미스트랄 AI 덕에 개발자들도 비용 없이 AI 모델을 실험할 수 있게 됐는데요.

 

AI 가격 인하로 인해 AI 기술이 더 빠르게 개발될 수 있길 기대해 봅니다.

 

그럼 이만 마무리하며, 다음에도 더 흥미로운 AI 관련 소식들을 발빠르게 가져오겠습니다.

 

 

 

관련글 더보기

댓글 영역