AI도 생각할 시간이 필요해
AI drinking a cup of coffee for deep thinking, with a rainy background

AI도 생각할 시간이 필요해

Cinnamomo di Moscata

생각하는 시간을 늘렸더니 초월적인 성능!

최근 대형 언어 모델(LLM)의 성능을 극대화하기 위해 추론을 확장하는 연구가 주목받고 있어요. 이 연구는 LLM이 고정된 양의 계산 자원을 사용할 때, 얼마나 성능을 향상시킬 수 있는지를 탐구하는데, LLM의 성능뿐만 아니라, 사전 훈련과 추론의 균형을 맞추는 데 중요한 시사점을 제공해줘요.

연구 결과, 추론 시간을 확장하면, 기존의 최적화된 모델보다 최대 4배 적은 계산 자원으로도 더 나은 성능을 달성할 수 있음을 보여줬어요. 특히, 문제의 난이도에 따라 최적의 추론 전략을 적용하는 것이 중요해요.

이 연구는 LLM의 사전 훈련보다 테스트 시간 계산을 확장하는 것이 더 효율적일 수 있음을 시사해요. 이는 더 작은 모델을 사용하면서도 높은 성능을 유지할 수 있는 가능성을 열어줘요. 앞으로는 사전 훈련에 소요되는 계산 자원을 줄이고, 추론에 더 많은 자원을 할당하는 방향으로 발전할 거라고 해요.

CoT는 맥가이버

최근 대형 언어 모델(LLM)의 성능을 극대화하는 방법으로 체인 오브 쏘트(CoT)가 주목받고 있어요. CoT는 모델이 최종 답변을 도출하기 전에 중간 단계를 생성하도록 유도하는 방법인데, 이 방법은 특히 수학 문제 해결과 코드 생성과 같은 복잡한 추론 작업에서 탁월한 성과를 보여준다고 해요.

CoT의 효과를 이해하기 위해서는 표현력의 관점에서 접근할 필요가 있어요. CoT는 모델이 일련의 중간 계산을 수행할 수 있게 하여, 기존의 병렬 계산만 가능한 트랜스포머 모델의 한계를 극복해요. 예를 들어, 트랜스포머는 CoT 없이는 특정 문제를 해결할 수 없지만, CoT를 사용하면 그 어떤 복잡한 문제도 느긋하게 해결할 수 있어요.

실험 결과, CoT를 활성화하면 병렬 계산이 어려운 작업에서도 모델의 정확도가 크게 향상된다고 해요. 이는 특히 낮은 깊이의 트랜스포머에서 두드러지며, CoT가 모델의 계산 능력을 극대화하는 데 중요한 역할을 한다는 것을 보여줘요.

CoT는 대형 언어 모델의 새로운 가능성을 열어주는 중요한 방법론이에요. 이를 통해 모델의 추론 능력을 극대화하고, 언어로 표현할 수 있는 모든 문제를 해결할 수 있는 길을 열어줘요. 앞으로 CoT를 활용한 다양한 연구가 기대되네요.

게임 마스터

노암 브라운(Noam Brown)은 세계 최고 수준의 포커 플레이어를 이긴 최초의 AI를 개발한 인물로, 마빈 민스키 메달을 수상하고 MIT 테크 리뷰(MIT Technology Review)에서 35세 이하의 혁신가로 선정된 바 있어요. 그는 포커 AI 연구를 시작으로, 최근에는 자연어 전략 게임인 디플로메시에서 인간 수준의 성과를 낸 키케로(Cicero) AI를 개발했어요.

2015년, 브라운과 그의 팀은 네 명의 최고 포커 선수들과 8만 핸드의 대결을 벌였으나, AI는 100핸드 당 9.1개 빅 블라인드로 패배했어요. 그러나 이 경험을 통해 AI의 반응 속도와 인간의 사고 과정을 비교하며, AI의 계획 능력의 중요성을 깨달았다고 해요. 이후 연구를 통해 AI의 검색 기능을 추가하여 성능을 크게 향상시켰어요.

브라운은 계획이 AI 성능에 미치는 영향을 과소평가했던 점을 지적하며, 계획 기능이 AI 모델의 성능을 10만배까지 향상시킬 수 있음을 발견했어요. 이는 단순한 모델 확장보다 훨씬 더 효과적인 접근 방식임을 보여줘요.

키케로 AI는 디플로메시 게임에서 상위 10%의 성과를 기록하며, 인간 플레이어들과의 대화에서도 자연스러운 소통을 보여줬어요. 이는 AI가 단순한 계산 능력을 넘어, 복잡한 전략 게임에서도 인간과 유사한 성과를 낼 수 있음을 입증한 사례라고 해요.

노암 브라운의 실제 강연

아이폰 디자이너도 AI 붐!

애플의 전설적인 디자이너 조너던 아이브(Jonathan Ive)가 OpenAI의 CEO 샘 알트만(Sam Altman)과 함께 새로운 AI 하드웨어 프로젝트를 진행 중이라는 소식이 전해졌어요. 이 프로젝트는 아이브와 에머슨 콜렉티브(Emmerson Collective)의 자금 지원을 받고 있으며, 연말까지 10억 달러의 자금을 모을 것으로 예상된다고 해요.

현재 프로젝트 팀은 10명으로 구성되어 있으며, 이 중에는 아이브와 함께 아이폰을 개발했던 탕 탄(Tang Tan)과 에반스 행키(Evans Hankey)도 포함되어 있다고 해요. 이들은 샌프란시스코에 위치한 3,000m2(32,000sq ft)의 사무실에서 작업 중이에요.

아이브와 알트만은 생성형 AI 기술이 전통적인 소프트웨어보다 사용자에게 더 많은 것을 제공할 수 있다는 점에서 새로운 컴퓨팅 장치를 만들 가능성을 논의했어요. 이 프로젝트는 터치스크린 기술과 초기 아이폰에서 영감을 받았다고 전해지지만, 구체적인 내용은 아직 확정되지 않았다고 해요. 이 혁신적인 협업이 어떤 결과를 낳을지 기대가 되네요.

밀레니엄 문제의 상금을 탐내다

최근 인공지능(AI) 기술의 발전은 놀라운 속도로 진행되고 있어요. 바둑, 체스와 같은 게임에서 인간을 넘어선 AI는 이제 수학계의 난제 해결에도 도전장을 내밀고 있다고 해요.

로빈후드 마켓(Robinhood Markets)의 창업자인 블라드 테네프(Vlad Tenev)는 국제수학올림피아드(IMO) 우승과 밀레니엄 문제 해결 가능성에 대한 흥미로운 예측을 제시해요. IMO 우승은 2024년, 밀레니엄 문제 중 하나인 리만 가설 해결은 2029년으로 예상하며, 인간과 AI의 협력, 즉 '하이브리드' 방식으로는 2028년에 밀레니엄 문제 해결이 가능할 것으로 내다보고 있어요.

물론 이는 어디까지나 예측일 뿐이에요. IMO 우승이나 밀레니엄 문제 해결은 매우 어려운 과제이며, AI가 인간의 직관과 창의성을 완전히 대체할 수 있을지에 대한 의문도 여전히 남아 있어요. 하지만 AI의 발전 속도를 고려하면, 이러한 예측이 현실이 되는 날도 머지않았을지 몰라요.

특히 흥미로운 점은 '쉬운 밀레니엄 문제'라는 표현이에요. 밀레니엄 문제는 모두 극악의 난이도를 자랑하지만, AI의 발전으로 일부 문제는 상대적으로 쉬워질 수 있다는 가능성을 시사하는 대목이에요.

AI가 수학계의 난제 해결에 어떤 역할을 할 수 있을지, 그리고 인간과 AI의 협력이 어떤 결과를 가져올지 궁금해져요.

블라드 테네브의 인터뷰

생각이 곧 약

결론적으로, 인공지능 기술의 발전은 우리의 일상과 다양한 산업에 혁신적인 변화를 가져오고 있어요.

대형 언어 모델의 성능을 극대화하기 위한 연구와 체인 오브 쏘트(CoT)와 같은 새로운 방법론은 AI의 가능성을 더욱 확장시키고 있어요. 또한, AI가 복잡한 전략 게임에서 인간과 유사한 성과를 내는 사례는 AI의 잠재력을 보여줘요.

앞으로도 AI와 인간의 협력은 더욱 긴밀해질 것이며, 이는 수학계의 난제 해결과 같은 도전적인 과제에서도 큰 성과를 이룰 수 있을 거에요. 이러한 발전은 AI가 단순한 도구를 넘어, 우리의 삶을 풍요롭게 하는 중요한 파트너로 자리매김할 수 있음을 시사해요. 앞으로의 AI 연구와 혁신이 에코 멤버님들에게 어떤 새로운 가능성을 열어줄지 기대해 보아도 좋을 것 같아요.


같이 읽어보면 좋은 글

생각하는 근육
OpenAI가 비공개 발표를 통해 ‘AI 에이전트’와 같은 차세대 인공지능 기술을 공개하며 큰 주목을 받고 있습니다. 인간처럼 사고하고 행동하는 AI의 미래, 지금 확인하세요!

Cinnamomo di Moscata (글쓴이) 소개

게임 기획자입니다. https://www.instagram.com/cinnamomo_di_moscata/


(1) Charlie Snell, Jaehoon Lee, Kelvin Xu, Avrial Kumar. (2024). Scaling LLM Test-Time Compute Optimally can be More Effective than Scaling Model Parameters. arXiv. https://arxiv.org/html/2408.03314v1

(2) Zhiyuan Li, Hong Liu, Denny Zhou, Tengyu Ma. (2024). Chain of Thought Empowers Transformers to Solve Inherently Serial Problems. arXiv. https://arxiv.org/html/2402.12875v3

(3) Denny Zhou. (2024). "What is the performance limit when scaling LLM inference? Sky's the limit. We have mathematically proven that transformers can solve any problem, provided they are allowed to generate as many intermediate reasoning tokens as needed. Remarkably, constant depth is sufficient. https://t.co/TvetSVWnj8". X. https://x.com/denny_zhou/status/1835761801453306089

(4) Paul G. Allen School. (2024). Parables on the Power of Planning in AI: From Poker to Diplomacy: Noam Brown (OpenAI). YouTube. https://www.youtube.com/watch?v=eaAonE58sLU

(5) MinsAnor. (2024). OpenAI 노암 브라운: O1에 대한 힌트, 계획(Planning). 디시인사이드. https://gall.dcinside.com/mgallery/board/view/?id=thesingularity&no=529266

(6) Alex Cranz. (2024). Jony Ive confirms he’s working on a new device with OpenAI. The Verge. https://www.theverge.com/2024/9/21/24250867/jony-ive-confirms-collaboration-openai-hardware

(7) Tsarathustra. (2024). "Robinhood founder Vlad Tenev says an AI-human collaboration may solve a Millennium Prize mathematics problem by 2028 and solve the Riemann hypothesis by 2029 https://t.co/wwY0v0ZN5u". X. https://x.com/tsarnick/status/1838683210680799665

Comments