소라의 진실... 1분 영상 만드는데 최소 1시간, 돈은 얼마나 들까?

reporter-profile
Sejin Kim 2024.02.23 08:33 PDT
소라의 진실... 1분 영상 만드는데 최소 1시간, 돈은 얼마나 들까?
소라에서 생성한 동물 이미지. 털 하나하나가 표현돼있다. 픽사에서 작업할 경우 수개월이 소요되는 것으로 알려졌다. (출처 : OpenAI X)

[테크브리핑]
오픈AI ‘소라’ 1분 영상 제작에 1시간
뉴욕타임스, 자체 생성AI 서비스 준비 중
구글, 이번엔 메타 쫓는다. 오픈소스 모델 ‘젬마’ 출시

화제의 오픈AI ‘소라’ 1분 영상 만드는 데 1시간 걸린다?

오픈AI가 만든 문자 기반 영상 생성모델인 소라(Sora)가 연일 화제죠. 소라는 아직 일반인에게 공개되지 않아 세부사항에 대한 궁금증이 계속되고 있습니다. 회사는 현재 위험성을 방지한다는 목적으로 '레드팀'을 운영, 유해성을 사전 검증하는 단계에 있죠.

이때 일부 테스터들이 소라를 테스트한 결과 1분짜리 비디오를 제작하는 데 렌더링 시간이 1시간 이상이 걸린다는 추측이 나왔습니다. 레딧 게시물, 와이어드 등에서는 테스터들은 “소라 연구원들은 비디오를 렌더링(제작)하는데 얼마나 걸리는지 얘기하지 않았지만 ‘일단 누르면 며칠 쉬는 것보다는 부리토 먹으러 나가는 것에 가까운 느낌’이라고 강조했다”고 전했죠.

게시물에 따르면 테스트에서는 사용자가 직접 프롬프트를 입력할 수 없었습니다. 최대 1분 영상을 만들 수 있다고 말했지만 가장 길게 제작한 영상은 17초로 알려져 있죠. 이를 두고 반응은 분분합니다. 17초까지만 생성된 점을 두고 “20초 후에는 많은 환각 현상이 나타날 것”이라는 우려부터 “고품질 비디오를 제작하는 데 필요한 현재의 육체 노동량과 비교할 때 90분짜리 영화에 90시간 걸리는 건 합리적”이라는 해석도 나왔습니다.

👉 샘 알트만이 7조달러 원하는 이유가 소라 때문?

샘 알트만 오픈AI 최고경영자(CEO)가 대규모 자금을 모집하려는 이유로 ‘소라’가 있다는 추측도 나옵니다. 그는 최근 AI칩 제작을 위해 7조달러(약 9000조원)라는 천문학적 금액을 조달하는 것으로 알려졌습니다. 이에 “현실성이 떨어진다”부터 “AI칩 산업 하나에 이 금액이 필요한 이유가 타당하지 않다”는 비판이 나왔었죠.

이때 이 정도 금액이 필요한 이유로 ‘소라’의 효율성과 확장성 문제가 꼽힙니다. 생성AI 솔루션에서 고품질 결과물을 얻으려면 여러 가지 다른 프롬프트를 사용해 반복하는 과정이 필요합니다. 이든 텍스트든 비디오든 마찬가지죠. 그러나 프롬프트를 반복할 때마다 방대한 데이터와 계산이 필요합니다. 산출물이 텍스트가 아닌 영상일 경우 대형언어모델(LLM)이 처리해야 하는 데이터와 계산은 훨씬 더 무거워지죠.

소라는 사업적으로도 많은 비용을 발생시킵니다. 훈련 데이터에 대한 저작권 문제에 사용료를 지불하는 추세죠. 생성한 콘텐츠에 폭력, 포르노 등을 제어해야 하는 등 ‘책임감 있는 AI’ 개발 비용도 있습니다.

그럼에도 소라는 벌써 콘텐츠 제작 업계에 파장을 불러오고 있습니다. 픽사가 괴물이 움직일 때 괴물 털의 움직임을 만드는 데 수개월이 걸리는 것으로 알려져 있죠. 오픈AI 소라는 이를 획기적으로 단축합니다. 팀 브룩스 소라 연구과학자는 와이어드에 “3D 기하학이나 일관성에 대해 트레이닝 하지 않았지만 그저 수많은 데이터를 합쳐 만들어냈다”면서 단일 이미지만으로 영상을 생성하는 스토리텔링 능력을 강조했습니다.

뉴욕타임스, 생성AI 광고 서비스 만든다

뉴욕타임스(NYT)가 올해 말 새로운 생성AI 기반 광고 서비스를 선보이기 위해 준비하고 있습니다.

20일(현지시각) 악시오스에 따르면 NYT는 2분기부터 자사 생성AI 기반 광고 타켓팅 솔루션 베타테스트(외부검증)에 참여할 파트너를 모집 중이죠. 생성AI 기술을 기반으로 광고 캠페인에 가장 적합한 게재 위치를 추천하고, 광고주가 실시간으로 광고 캠페인을 더 쉽게 계획하고 최적화할 수 있게 해주는 서비스입니다.

NYT는 올해 하반기 출시를 목표하고 있습니다. 솔루션 제작 과정에서 다수 대형언어모델(LLM)을 실험하고 있죠. 이들의 목표는 사용자의 관심, 목표, 의견을 기반으로 이전에는 포착할 수 없었던 틈새 잠재 고객을 찾아내 타겟팅하는 마케팅 분석 툴입니다. 비용은 아직 알려지지 않았습니다.

NYT는 제품이 출시 후 자사 광고팀을 통해서만 이 도구를 판매할 예정입니다. 모힛 로히아(Mohit Lohia) 뉴욕타임스 디지털광고총괄은 “이 제품으로 생성AI가 책임감있게 사용될 때 비즈니스에 효과적인 무언가가 될 수 있음을 증명할 수 있다”면서 “매우 잘 조직된 데이터와 고품질 콘텐츠가 결합되면서 새로운 유형의 생성AI 제품 실험을 시작할 수 있게 됐다”고 전했습니다.

👉 AI와 미디어, 협업과 독립 두 갈래

원작물에 대한 저작권을 보유한 미디어, 소셜미디어 등 기업들이 AI 기업과 협업과 독립 노선을 각자 택하고 있습니다.

이중 뉴욕타임스(NYT)는 독립 노선을 택하는 대표적인 곳이죠. 이번 조치도 구글 등이 도입하는 제3자 추적(쿠키) 금지 원칙에 따라 독립적인 디지털 광고 체계를 구축하려는 시도로 풀이됩니다. NYT는 지난 12월 뉴스룸에서 AI를 실험하고 윤리적 문제를 고민할 수 있도록 자크 세워드(Zach Seward) 쿼츠 공동창업자를 뉴스룸 AI 이니셔티브 총괄로 채용한 바 있습니다.

반면 협업으로 선회한 콘텐츠 저작권자도 늘어나는 추세입니다. 대형 커뮤니티 레딧은 최근 구글과 콘텐츠 파트너 계약을 체결했습니다. 21일 로이터통신 보도에 따르면 레딧은 훈련 데이터를 제공하는 대가로 연 6000만달러 규모의 계약을 체결했죠.

레딧은 AI기업에서 지불하는 사용료가 틱톡, 페이스북 등 플랫폼과 광고비 수주 경쟁에서 새로운 수익원이 될 것으로 보고 있습니다. 22일 레딧은 미국 증권거래위원회(SEC)에 제출한 증권신고서에서 종목코드명 'RDDT'로 기업공개(IPO)를 추진한다고 밝혔습니다. 서류에 따르면 샘 알트먼 오픈AI 창업자가 세번째로 지분이 많은 대주주였습니다.

뉴욕타임스 본사 (출처 : 뉴욕타임스)

구글, 이번엔 메타다. 오픈소스 경량 LLM ‘젬마’ 출시

AI 업계에서 또 다른 화두 중 하나가 외부 개발자도 상업적 용도로 이용할 수 있는 오픈소스(개방형) 모델입니다. 구글이 여기에 뛰어들었습니다.

구글은 21일(현지시각) 자사 블로그를 통해 개방형 대형언어모델(LLM)인 ‘젬마(GEMMA)’를 공개했습니다. 젬마는 구글이 지난해 말 선보인 LLM ‘제미나이’와 동일한 기술을 바탕으로 만들어진 경량언어모델(sLLM)입니다. 매개변수(파라미터)가 20억개인 ‘젬마 2B’와 70억개인 ‘젬마 7B’ 두 종류로 출시됐죠. 젬마는 캐글, 허깅페이스, 엔비디아 네모, 버텍스 AI 등 오픈소스 AI 모델을 배포하는 플랫폼을 통해 사용할 수 있습니다. 경량 모델인 만큼 향후 네트워크 연결 없이 기기에서 바로 AI를 구동하는, 온디바이스AI로도 활용할 수 있다는 게 구글의 설명입니다.

구글은 젬마의 AI 모델 능력 평가 시험 다중작업언어이해(MMLU) 결과도 공개했습니다. 젬마 7B는 평균 64.3점을 받아 메타의 라마2가 받은 45.3점보다 높은 점수를 얻었습니다. 구글은 “젬마는 전 세계에서 사용할 수 있으며, 책임감 있는 상업적 이용과 배포를 모든 기관에 허용한다”면서 “젬마는 동급 최고 성능을 구현하면서도 경량이라 개발자의 노트북이나 데스크톱에서 직접 실행할 수 있는 장점이 있다”고 강조했습니다.

👉 오픈소스 LLM 경쟁 치열해진다

그간 인공지능(AI) 관련해선 폐쇄형 전략을 추진해왔던 구글이 젬마를 통해 개방형 AI 모델 시장까지 진출했습니다. 폐쇄형 AI를 고수해온 빅테크들이 오픈소스 AI로 자사 AI 생태계 확장을 꾀하고 있습니다. 오픈소스로 언어모델을 만들면 당장 큰 수익은 얻기 어렵지만, 더 많은 개발자가 해당 모델을 검토·사용해 나가며 완성도를 높일 수 있다는 장점이 있기 때문입니다.

지난해 메타는 자체 LLM ‘라마(Llama)2’를 개방형으로 출시해 IBM·인텔 등과 함께 AI 생태계를 구축해왔습니다. 메타와 구글에 이어 오픈AI도 오픈소스 AI 진영에 합류할 전망입니다. 샘 알트만 오픈AI 최고경영자(CEO)는 지난 13일 아랍에미리트(UAE) 두바이에서 열린 세계정부정상회의(WGS) 행사에서 “오픈AI에서 개발한 일부 LLM을 오픈소스화할 계획”이라고 밝힌 바 있습니다.

구글은 젬마 활용도를 늘리기 위해 엔비디아 그래픽처리장치(GPU) 간 호환성을 강조하는 한편, 젬마 사용자에게 최대 50만달러의 개발 자원을 지원하는 ‘구글 클라우드 크레딧’ 신청 자격 부여 등을 내걸었습니다. 다만 뉴욕타임스(NYT)는 “구글이 메타에 이어 자체 AI 모델을 일부 개방했지만, 가장 강력한 AI 시스템은 여전히 감췄다”며 한계를 지적하기도 했습니다.

구글이 자사 오픈소스모델 젬마를 메타의 라마와 조목조목 비교하며 우수성을 강조하고 있다. (출처 : Google)

회원가입 후 뷰스레터를
주 3회 무료로 받아보세요!

단순 뉴스 서비스가 아닌 세상과 산업의 종합적인 관점(Viewpoints)을 전달드립니다. 뷰스레터는 주 3회(월, 수, 금) 보내드립니다.