크리에이티브 시대!
stay creative

크리에이티브 시대!

Cinnamomo di Moscata

고작 30달러로 딥시크를?!

UC 버클리 AI 소속 학생이 30달러 미만의 비용으로 딥시크 R1-제로(DeepSeek R1-Zero)의 구조를 재현하는 데 성공했어요. ‘TinyZero(이하 타이니제로)’라는 이름으로 공개된 이 모델은 단 30억(3B) 개의 파라미터만으로 강화 학습을 통해 스스로 문제 해결 능력을 키우고, 놀랍게도 정답을 자체 검증하는 능력을 보여줘요.

타이니제로는 주어진 숫자로 목표 숫자를 만드는 카운트다운 게임에서 뛰어난 추론 능력을 입증했어요. 초기 오답을 스스로 수정하고 정답을 찾아내는 과정은 마치 ‘아하!’하는 순간(Ahah Moment)을 연상시켜요. LLM이 단순히 계산을 넘어 생각하는 근육을 쓸 수 있음을 보여줘요.

타이니제로는 구조를 구현하기 위해 강화 학습 프레임워크 ‘veRL’을 기반으로 퀜 2.5(Qwen2.5) 모델을 학습했어요. 놀라운 점은 거대 모델이 아닌 3B 규모의 작은 모델이 강화 학습만으로 이처럼 뛰어난 능력을 갖추게 되었다는 점이에요. 누구나 30달러라는 터무니 없이 낮은 비용으로도 인간만큼 똑똑한 고성능 AI 개발이 가능하다는 희망을 제시해요.

연구팀은 타이니제로 프로젝트를 깃헙(GitHub)에 오픈소스로 공개해서 누구나 쉽게 접근하고 실험해 볼 수 있도록 했​어요. 추후 논문도 공개할 예정이라네요.

영상에서 게임으로!

최근 연구는 게임 개발의 혁신을 불러일으키고 있어요. 지니 2(Genie 2)에 이은 GameFactory(이하 게임팩토리)라는 새로운 프레임워크는 미리 훈련된 비디오 모델을 활용해서 새로운 게임을 자동으로 생성하는 기능을 제공한다고 해요. 이를 통해 전통적인 게임 개발에서 프로토타입을 만들 때 소요되는 수작업을 크게 줄일 수 있어요.

게임팩토리의 핵심은 장면 일반화에요. 기존의 게임 생성 방법은 특정 게임과 스타일에 제한되었지만, 게임팩토리는 일반적인 비디오 데이터를 활용해 다양한 장면을 생성할 수 있도록 해요. 예를 들어서, 마인크래프트(Minecraft)를 기반으로 한 데이터셋을 활용해 다양한 액션을 제어하고, 그 학습 과정을 통해 새로운 게임의 장면을 무한히 만들어낼 수 있어요.

특히, 게임팩토리는 마우스 움직임과 키보드 입력을 지원해서 액션을 제어할 수 있는 기능도 갖추고 있어요. 사용자는 게임팩토리로 만든 게임 안에서 다양한 상호작용을 할 수 있고, 게임 경험을 한층 더 풍부하고 다양하게 만들어 줘요.

이 혁신적인 접근 방식은 AI 기반의 게임 엔진의 가능성을 크게 확장시켜줘요. 게임팩토리의 등장으로 우리는 더 많은 창의적이고 독창적인 게임을 기대할 수 있어요. 이런 기술들이 하루라도 더 빨리 도입되서 창의적인 게임 출시에 새로운 바람을 불러일으키면 좋겠네요.

0:00
/0:05

비디오잼이라면 성능도 꿀잼

비디오 생성 AI가 실세계의 모션, 동력학, 물리적 특성을 잘 포착하지 못하는 문제를 해결하기 위해 VideoJAM(이하 비디오잼)이라는 새로운 프레임워크가 도입되었어요. 비디오잼은 모델이 외형과 모션을 공동으로 학습하도록 해서 실제 세계가 어떻게 생겼는지, 그리고 물리학이 어떻게 작동하는지 파인튜닝으로 알려줘서 비디오 품질과 일관성을 크게 향상시켜요.

비디오잼의 핵심은 학습과 추론 과정에서 동작 신호를 적극적으로 활용한다는 점이에요. 학습 단계에서 모델은 생성된 픽셀과 해당 모션을 예측하도록 훈련돼요. 추론 단계에서는 Inner-Guidance라는 메커니즘을 통해서 모델 자체의 모션 예측을 이용해 비디오 생성 방향을 조절해요. 그 덕에 비디오잼의 접근 방식은 모델의 훈련 데이터나 크기를 변경할 필요 없이 소라 터보부터, 오픈소스 비디오 AI까지 거의 모든 비디오 모델에 적용할 수 있다고 해요.

이 프레임워크는 기존의 비디오 AI들이 겪고 있는 모션 일관성 문제를 해결하고, 높은 시각적 품질을 유지하면서도 모션 생성의 일관성을 비오 2(Veo 2) 버금가는 수준으로 크게 향상시켜요. 비디오잼은 단순한 모션부터 복잡한 동작, 물리적 상호작용까지 다양한 모션 타입을 다룰 수 있기 때문에 비디오 AI를 얼마나 뛰어나게 만들 수 있을지 직접 보고 싶어지네요.

0:00
/0:05

기존 비디오 AI(왼쪽)와 비디오잼으로 파인튜닝한 비디오 AI(오른쪽)

쉽게 만드는 법도 중요해

최근 몇 년간, 오디오를 기반으로 한 인간 애니메이션 생성 기술이 눈부시게 발전했습니다. 그러나 기존 방법들은 일반적인 비디오 생성 모델로 확장되는 데에 한계가 있었어요. 이를 극복하기 위해, 틱톡(TikTok)으로 유명한 바이트댄스(ByteDance)에서 OmniHuman(이하 옴니휴먼)이라는 새로운 프레임워크를 제안했어요. 이 프레임워크는 학습 단계에서 모션 관련 조건을 혼합하여 데이터를 확장하는 데 중점을 둬요.

옴니휴먼은 스테이블 디퓨전 등에서 쓰이는 디퓨전 트랜스포머(Diffusion Transformer) 기반의 모델로, 텍스트, 오디오, 포즈 등 다양한 모션을 프롬프트로 사용해서 고도로 현실적인 인간 비디오를 생성할 수 있어요. 이런 접근 방식은 누구나 쉽게 AI를 사용할 수 있도록 해주면서 다양한 상황에서 더 현실감 있는 비디오를 생성할 수 있도록 도와줘요.

특히, 옴니휴먼은 얼굴 클로즈업, 반신, 전신 등 인간 형태의 다양한 콘텐츠를 지원하고, 토킹과 노래를 포함한 여러 드라이빙 신호를 동시에 처리할 수 있어요. 기존 방법들과 비교해, 옴니휴먼은 더 현실감 있는 비디오를 생성할 뿐만 아니라 사용하기 쉬우니 쓰는 법도 앞으로는 공부할 일이 줄어들겠네요.

0:00
/0:08

AI도 저작권이 있어

최근 미국 저작권 사무소(National Copyright's Office)는 AI로 생성된 작품도 아티스트의 창의성이 충분히 포함되어 있다면 저작권을 획득할 수 있다는 새로운 보고서를 발표했어요. 이 보고서는 할리우드, 음악 산업 및 기타 창작 분야에서 AI 도구의 활용을 더욱 촉진할 수 있을 것으로 보여져요.

저작권 사무소는 AI가 단순히 생성하기만 한 콘텐츠는 저작권 보호를 받을 수 없지만, 인간이 AI가 만든 결과물에 창의적으로 아이디어, 철학 등을 담아서 다듬는다면 저작권 보호를 받을 수 있다고 명확히 했어요. 동시에, 악용을 막기 위해서 단순히 AI 도구를 이용해 작업을 수행하는 것만으로는 저작권을 받을 수 없다는 점도 강조했어요.

이 접근 방식은 AI 기반 창작물이 저작권 보호를 받을 수 있는 길을 열어줄 뿐만 아니라, 인간의 특권인 창의성의 중요성을 다시 한 번 상기시켜 줘요. 저작권 사무소는 앞으로 AI 모델의 학습에 사용되는 저작권 관련 자료에 대한 보고서도 발표할 예정이라고 해요.

고민만 하면 더 어려워

LLM에서는 새로운 접근법인 테스트 시점 스케일링(Test Time Scaling)이 주목받고 있어요. 이 방법은 테스트 시점에서 추가적인 연산을 사용해 생각하는 힘을 이끌어내고, 성능을 향상시키는 것을 목표로 했어요. s1 모델은 생각을 여러번 끊어서 길게 지속시키는 기법인 예산 강제(budget forcing)를 통해 이를 구현했어요. 이 방법은 모델이 생각이 너무 길어져서 작동을 멈추려 할 때 "Wait(잠깐)"을 반복해서 새로 생각하도록 끊었고, 결과적으로 더 깊은 사고를 유도했어요.

s1-32B 모델은 1,000개의 고품질 질문으로 구성된 s1K 데이터셋을 사용해 훈련되었어요. 이 데이터셋은 질문의 난이도, 다양성, 품질을 기준으로 엄선된 것이라고 해요. 이 모델은 테스트 시점에서 연산 시간을 조절함으로써 경쟁력 있는 성능을 보여주고, 특히 수학 문제에 강하다고 해요.

이 접근법은 기존의 대규모 데이터와 여러 단계의 훈련을 요구하는 방식과 달리, 생각하는 시간을 끊어서 여러번 하는 방식, 즉 최소한의 자원으로도 높은 성능을 이끌어낼 수 있음을 입증해요. 테스트 시점 스케일링과 예산 강제를 결합한 s1-32B 모델은 향후 언어 모델 연구에 중요한 방향을 제시하고 있어요.

논문 작성도 AI로 30분 안에!

케빈 브라이언(Kevin A. Brian) 토론토대(University of Toronto) 교수가 최근 리뷰를 남긴 OpenAI의 새로운 모델, 'o3 Deep Research(이하 딥 리서치)'는 학계와 연구 분야에 큰 파장을 예고하고 있어요. 브라이언 교수는 소셜 미디어를 통해 이 모델이 구글의 '딥 리서치' 아이디어를 기반으로 멀티 스텝 추론, 웹 검색, 그리고 개선된 o3 모델을 통합했다고 밝혔어요. 놀라운 점은 이 모델이 복잡한 질문에 답하는 데 평균 30분이나 소요될 정도로 심층적인 분석을 수행한다는 점이에요.

브라이언 교수는 딥 리서치의 능력을 보여주는 몇 가지 예시를 제시했어요. 그 중 하나는 1890년 맥킨리 관세에 대한 경제학 논문 초안 작성 요청이었어요. 현대 무역 이론을 바탕으로 작성해달라는 다소 까다로운 요구에도 불구하고, 모델은 단 한 번의 시도만으로 논문 초안을 라텍스 형식과 참고 문헌까지 포함하여 생성했어요. 브라이언 교수는 AI가 작성한 초안의 품질에 놀라움을 표하며 "심사받았던 논문 중 이것보다 못한 것도 있었다"고 평가했어요.

이어서 브라이언 교수는 혁신 이론 관련 논문 작성을 시도했어요. 모델은 수십 편의 논문을 스캔하고 분석한 후, 브라이언 교수가 제시한 가이드라인에 따라 모델 초안을 작성했어요. 완벽하진 않았지만, 기존 스카치머-그린 모델의 경미한 확장을 제시하는 등 상당한 수준의 결과물을 보여줬어요. 브라이언 교수는 이 과정을 통해 "연구 속도를 획기적으로 높일 수 있는 길이 명확해졌다"고 강조했어요.

브라이언 교수는 딥 리서치와 같은 AI 모델이 연구 분야에 혁신적인 변화를 가져올 것이라고 전망했어요. 그는 AI가 연구 속도를 가속화하고, 학술 논문 작성 과정을 간소화하고, 교육 방식에도 근본적인 변화를 요구할 것이라고 예측했어요. 특히, AI 모델이 생성하는 학술적 결과물의 급증에 대비하여 학계의 대응 방안 마련이 시급하다고 지적했어요.

더불어 브라이언 교수는 교육 분야에서 "학생들이 무엇을, 어떻게 배워야 하는가"에 대한 근본적인 질문이 더욱 중요해질 것이라고 강조하며, AI 시대에 맞는 새로운 연구 및 교육 시스템 구축의 필요성을 역설했어요.

딥 리서치가 작성한 논문 초안

비 크리에이티브

단돈 30달러로 딥시크의 아키텍처를 재현하는 타이니제로의 등장부터, 단 30분 만에 학술 논문 초안을 뚝딱 만들어내는 딥 리서치까지, 오늘 살펴본 AI 기술들은 그야말로 눈부신 진화를 거듭하고 있어요.

더 놀라운 점은 이 혁신들이 특정 분야에 국한되지 않고, 게임 개발, 영상 제작, 저작권, 심지어 논문 작성과 같은 다양한 영역에서 융합적으로 나타나고 있다는 점이에요. AI는 이제 단순히 ‘계산’을 잘하는 도구를 넘어, 인간의 창의성과 지적 활동을 보조하고, 때로는 혁신을 이끌어내는 강력한 동반자로 자리매김하고 있어요.

우리가 마주한 것은 단순한 기술 발전이 아닌, 삶의 모든 측면에서 AI와 공존하며 새로운 가능성을 탐색해야 하는 시대적 흐름이에요. 앞으로 더욱 발전할 AI 기술들이 우리 삶에 어떤 놀라운 변화를 가져다줄지 기대하며, 에코 멤버님들은 AI 시대에 걸맞는 윤리적 고민과 사회적 논의를 함께 준비해야 할 거에요.


같이 읽어보면 좋은 글

딥시크 열풍은 끝나지 않았어
대형 언어 모델의 메타 인지와 추론 시간 계산이 AI 안전성 및 성능을 혁신합니다. 딥시크, 키미 k1.5, 두바오 등 최신 AI 경쟁 동향과 기술 발전을 확인해 보세요.

Cinnamomo di Moscata (글쓴이) 소개

게임 기획자입니다. https://www.instagram.com/cinnamomo_di_moscata/


(1) Jiayi Pan and Junjie Zhang and Xingyao Wang and Lifan Yuan and Hao Peng and Alane Suhr. (2025). TinyZero. GitHub. https://github.com/Jiayi-Pan/TinyZero

(2) Jiayi Pan. (2025). "We reproduced DeepSeek R1-Zero in the CountDown game, and it just works Through RL, the 3B base LM develops self-verification and search abilities all on its own You can experience the Ahah moment yourself for < $30 Code: https://t.co/B2IsN1PrXV Here's what we learned 🧵 https://t.co/43BVYMmS8X". X. https://x.com/jiayi_pirate/status/1882839370505621655

(3) arXiv:2501.08325 [cs.CV]

(4) arXiv:2502.02492 [cs.CV]

(5) arXiv:2502.01061 [cs.CV]

(6) Matt O'Brien. (2025). AI-assisted works can get copyright with enough human creativity, says US copyright office. AP. https://apnews.com/article/ai-copyright-office-artificial-intelligence-363f1c537eb86b624bf5e81bed70d459

(7) arXiv:2501.19393 [cs.CL]

(8) Kevin A. Bryan. (2025). "The new OpenAI model announced today is quite wild. It is essentially Google's Deep Research idea with multistep reasoning, web search, *and* the o3 model underneath (as far as I know). It sometimes takes a half hour to answer. Let me show you an example. 1/x https://t.co/tccw7Mecil". X. https://x.com/Afinetheorem/status/1886206439582015870


트렌드 도구👀

  • Felo.ai > 논문 찾기와 에이전트 검색에 특화된 에이전트 비서.
  • Heygen > 나만의 커스텀 AI 아바타 만들기의 선두주자.
  • Mixo > AI로 웹사이트 손쉽게 만들기.
  • MAKE > AI 자동화 워크 플로우.
  • Teamsaver.ai > 이메일을 통해 매일 팀 업데이트를 수집하는 AI 에이전트.
  • 1Legion > 고성능 클라우드 컴퓨팅을 반값에!
  • AI Dialog 1.0 재생 > 매우 감성적인 AI 텍스트 음성 변환 모델입니다.

*Affiliate links and regular links may be included.


뉴스레터 광고 공간 (광고주를 모집합니다)

For newsletter banner advertising inquiries, please contact: Bopyo@aikoreacommunity.com

이곳에 서비스를 소개하세요!

뉴스레터 배너 광고 문의: Bopyo@aikoreacommunity.com


뉴스레터 편집장 소개

Comments