26년 새해 스페셜!
인공태양의 불꽃!
인류가 오랫동안 꿈꿔온 '무한 청정 에너지'의 실현, 바로 핵융합(Nuclear Fusion) 발전은 흔히 '병 속에 태양을 담는 일'에 비유되곤 해요. 태양이 타오르는 원리를 지구 상에서 재현하기 위해서는 무려 1억 도가 넘는 초고온의 플라즈마(Plasma)를 특정한 공간 안에 가둬두어야 하기 때문이죠.
하지만 이 과정은 그 자체로 극한의 기술을 요구하는 난제 중의 난제였어요. 특히 플라즈마의 가장자리 부분이 불안정해지며 요동치는 현상(Edge Instability)은 핵융합 장치인 토카막(Tokamak)의 내부 벽을 손상시킬 위험이 있어, 상용화로 가기 위해 반드시 넘어야 할 거대한 산과도 같았답니다. 그런데 최근, 이 까다로운 문제를 해결할 열쇠로 AI이 급부상하는 가운데, 한국인 과학자들이 주도한 연구팀이 놀라운 쾌거를 이뤘다는 반가운 소식이 들려왔어요.
지난 12월 23일, 미국 프린스턴 플라즈마 물리학 연구소(PPPL)의 양성무(SeongMoo Yang), 김상균(SangKyun Kim) 박사와 리카르도 쇼사(Ricardo Shousha) 박사가 '2025 카울 재단상(Kaul Foundation Prize)'을 수상하는 영예를 안았어요. 이 상은 플라즈마 물리학 분야에서 혁신적인 성과를 낸 연구자들에게 주어지는 매우 권위 있는 상인데요, 이들은 AI와 3차원(3D) 자기장을 결합하여 골칫거리였던 플라즈마의 가장자리 불안정성을 제어하는 기술을 개발한 공로를 인정받았어요.
기존의 2차원 자기장 제어 방식이 평면적인 접근에 머물렀다면, 이들의 연구는 AI를 활용해 플라즈마의 움직임을 실시간으로 예측하고, 입체적인 3차원 형태로 자기장을 최적화하여 플라즈마를 가두는 성능, 즉 '가둠 성능(Confinement Performance)'을 획기적으로 높인 것이죠.
이 기술의 핵심은 바로 '선제적인 예측과 대응'에 있어요. 기존 시스템이 문제가 발생한 직후에야 반응하는 사후약방문 식이었다면, 연구팀이 개발한 AI 제어 시스템은 불안정성이 형성되기도 전에 미리 위험 신호를 감지하고 자기장의 형태를 조절해요.
비유하자면, 아주 숙련된 조련사가 거친 야생마의 미세한 근육 움직임만 보고도 다음 동작을 예측해 미리 고삐를 채우는 것과 같다고 볼 수 있죠. 이러한 진보된 제어 기술은 핵융합 반응을 더 길게, 그리고 더 안정적으로 유지할 수 있게 함으로써, 실험실의 성공을 넘어 실제 전력 생산이라는 실질적 목표에 한 걸음 더 다가서게 만들었어요.
특히 이번 수상이 우리에게 더욱 뜻깊게 다가오는 이유는, 한국의 핵융합 연구 역량이 세계적 수준임을 다시 한번 입증했기 때문이에요. 수상자 명단에 당당히 이름을 올린 양성무, 김상균 박사의 눈부신 활약은 물론이고, 이 기술을 검증하는 과정에서 한국의 초전도핵융합연구장치인 'KSTAR'의 데이터가 핵심적으로 활용되었다는 점은 시사하는 바가 매우 커요. 김상균 박사가 언급했듯, 물리학적 이론과 최첨단 AI 기술, 그리고 정교한 제어 공학이 완벽하게 어우러진 이번 성과는 국경을 넘나드는 글로벌 협력의 훌륭한 산물이라고 할 수 있죠.
물론 핵융합 발전의 완전한 상용화까지는 아직 갈 길이 멀어요. 인간의 개입 없이 모든 변수를 완벽하게 통제하는 완전 자동화 시스템 구축이라는 과제가 여전히 남아 있거든요. 그러나 스티브 카울리(Steve Cowley) PPPL 소장이 보낸 “가장 어려운 문제에 대한 근본적인 기여”라는 찬사처럼, 이들은 가장 위험하고 다루기 힘든 불꽃을 가장 안전하게 다루는 길을 활짝 열어젖혔어요. AI라는 정교한 고삐를 쥔 인류가 '인공태양'이라는 거대한 에너지를 자유자재로 다루게 될 날, 생각보다 머지않은 미래에 우리 곁으로 다가올지도 모르겠네요.
AI의 식사법
최첨단 기술의 정점이라 불리는 AI 산업 현장에서, 최근 기묘하고도 역설적인 풍경이 펼쳐지고 있어 화제예요. 미래를 여는 열쇠라 불리는 AI 데이터센터(Data Center)들이 정작 자신을 가동할 전기를 얻기 위해, 과거의 유물처럼 여겨지던 방식인 비행기 엔진을 개조한 터빈이나 디젤 발전기를 돌리고 있다는 사실, 믿어지시나요? 2025년 말이 다가오는 현재, 심각한 전력 부족이라는 현실의 벽에 부딪힌 AI 업계가 선택한 어쩔 수 없는 고육지책이라고 해요.
파이낸셜타임스(Financial Times, FT)의 보도에 따르면, 최근 데이터센터 개발사들 사이에서는 항공기 엔진을 기반으로 한 가스터빈(Aeroderivative Turbine)과 화석 연료 발전기 주문이 폭주하고 있다고 해요. 그 이유는 아주 단순하면서도 절박해요. 데이터센터를 지어놓고도 전력망(Power Grid)에 정식으로 연결되기를 기다리는 시간이 지역에 따라 무려 7년까지 늘어났기 때문이에요.
OpenAI나 오라클(Oracle) 같은 거대 기술 기업들은 하루가 다르게 변하는 경쟁 속에서 1분 1초가 급한 상황인데, 하염없이 전봇대만 바라보며 기다릴 수는 없는 노릇이잖아요? 결국 그들은 전력망을 우회하여 스스로 전기를 만드는 '자가 발전'이라는 카드를 꺼내 든 것이죠.
이 과정에서 아주 흥미로운 산업 간의 합종연횡도 일어나고 있어요. GE버노바(GE Vernova) 같은 전통적인 에너지 기업의 소형 가스터빈 주문이 급증한 것은 물론이고, 보잉 747(Boeing 747) 점보 제트기에 쓰이는 엔진 부품이 데이터센터 전력 공급용으로 재탄생하기도 해요. 심지어 초음속 여객기 스타트업인 '붐 슈퍼소닉(Boom Supersonic)'은 본업인 비행기 제작보다 발전용 터빈 판매로 먼저 수익을 낼 판이라는 우스갯소리까지 나오고 있어요.
샘 알트만(Sam Altman) OpenAI CEO가 직접 나서서 "제발 우리를 위해 터빈을 만들어 달라"고 요청했다는 일화는, 현재 AI 업계가 겪고 있는 '전력 기근'이 얼마나 심각한지를 단적으로 보여주는 대목이에요.
하지만 문제는 이 '임시방편'이 낳을 부작용이에요. 데이터센터 바로 옆에서 화석 연료를 태워 돌리는 소형 발전기들은 대형 발전소에 비해 에너지 효율은 낮고 탄소 배출량은 훨씬 많거든요. 록키마운틴 연구소(Rocky Mountain Institute, RMI)의 지적처럼, 이는 중앙 그리드를 통해 공급받는 전력보다 환경에 훨씬 해로울 수밖에 없어요. 비용 또한 만만치 않아요. 자가 발전 비용은 메가와트시(MWh)당 약 175달러로 추산되는데, 이는 일반적인 산업용 전기 요금의 두 배에 달하는 엄청난 수준이죠.
그럼에도 불구하고 규제의 빗장은 서서히 풀리고 있는 분위기예요. 데이터센터가 밀집한 버지니아(Virginia)주를 비롯한 당국은 전력 수급 안정을 위해 디젤 발전기 가동 제한을 완화하려는 움직임마저 보이고 있어요. AI라는 거대한 혁신의 파도 앞에서, 그동안 인류가 지키려 애썼던 환경 규제조차 뒷전으로 밀려나는 모양새라 씁쓸함을 감출 수 없네요.
업계에서는 이를 전력망 연결 전까지 잠시 사용하는 '가교 전력(Bridge Power)'이라고 부르며 애써 위안하고 있어요. 하지만 에너지 효율과 친환경을 외치던 테크 기업들이 생존을 위해 가장 비효율적이고 반환경적인 수단을 선택하게 된 이 아이러니. 지속 가능한 전력 공급 대책 없이는 AI가 그리는 장밋빛 미래도 결국 자욱한 '매연' 속에 갇힐 수 있음을 경계해야 할 때예요.
GTA VI, AI 혁명의 신호탄이 되다
전 세계 게이머들의 초미의 관심사, 바로 'Grand Theft Auto VI(이하 GTA VI)'의 출시가 다가오면서 업계 안팎에서는 다양한 추측이 난무하고 있어요. 그중 가장 뜨거운 감자는 단연 게임의 '가격'이었죠. 일각에서는 천문학적인 개발비를 회수하기 위해 역사상 최초의 '100달러(약 13만 원) 게임'이 될 것이라는 다소 충격적인 전망을 내놓기도 했거든요.
하지만 락스타 노스(Rockstar North)의 전 테크니컬 디렉터이자 초기 GTA 시리즈의 성공을 이끌었던 주역, 오베 베르메이(Obbe Vermeij)의 생각은 좀 달랐어요. 그는 최근 게임스허브(GamesHub)와의 인터뷰를 통해 GTA VI의 고가 논란을 일축하며, 게임 개발의 미래를 관통하는 중요한 화두인 'AI'의 역할을 강조하고 나섰답니다.
베르메이는 GTA VI가 100달러에 판매되지는 않겠지만, '역사상 가장 많은 개발비가 투입된 게임'이 될 것이며, 어쩌면 이 엄청난 기록은 앞으로도 깨지지 않을 것이라고 예견했어요. 그가 이렇게 확신하는 근거는 바로 AI 기술의 눈부신 발전 때문이에요.
그는 현재 AAA급 대작 게임 개발 비용의 약 70% 이상이 아티스트들의 인건비에 소요된다고 꼬집었어요. 캐릭터의 관절을 심는 애니메이션 리깅(Rigging), 충돌 메시(Collision Mesh) 수정, 그리고 끝도 없이 이어지는 골목길이나 건물 내부 인테리어 구현 등 수많은 작업이 아티스트들의 단순 반복 노동에 의존하고 있다는 것이죠.
하지만 베르메이는 이러한 풍경이 머지않아 완전히 바뀔 것이라 확신하고 있어요. 그는 앞으로 AI와 절차적 생성(Procedural Generation) 기술이 이러한 '단조로운 작업(Monotonous Work)'을 도맡게 될 것으로 내다봤어요.
예를 들어, 생동감 넘치는 군중 씬을 만들기 위해 40~50명의 배우를 일일이 모션 캡처(Motion Capture)하는 대신 AI가 이를 자동으로 생성하고, 배경 에셋 제작의 상당 부분을 자동화함으로써 개발 효율이 비약적으로 상승할 것이라는 설명이에요.
즉, GTA VI는 이러한 AI 기술이 전면적으로 도입되기 직전, 인간 개발자들의 땀과 막대한 노동력이 투입되는 마지막 거대 프로젝트가 될 가능성이 높다는 것이죠.
그의 시선은 단순히 비용 절감에만 머물지 않아요. 현재 GTA VI 개발팀 1,500여 명 중 창의적인 결정을 내리는 인력은 극소수에 불과하고, 대다수는 반복 작업에 매몰되어 있는 것이 안타까운 현실이거든요.
베르메이는 AI가 개발 도구 전반에 적용되면 개발자들의 생산성이 높아지고, 결과적으로 게임 제작 비용이 낮아질 것이라 전망했어요. 이는 곧 개발사들이 실패를 두려워하지 않고 더 과감한 위험을 감수하거나, 틈새시장을 겨냥한 독창적인 시도를 할 수 있는 환경을 조성할 거예요.
GTA VI는 오픈 월드(Open World) 게임의 정점인 동시에, 인간의 노동력만으로 쌓아 올린 거대 자본 게임의 마지막 유산이 될지도 몰라요. 베르메이의 통찰처럼, AI가 가져올 미래는 단순한 자동화가 아니에요.
개발자들을 지루한 노동의 굴레에서 해방시켜, 게임 산업이 다시금 '창의성'이라는 본질에 집중하게 만드는 기폭제가 될 거예요. GTA VI 이후의 세상, AI와 함께 열릴 게임의 새로운 르네상스가 벌써부터 기다려지네요.
OpenAI의 아슬아슬한 줄타기
2026년 새해가 밝자마자 OpenAI의 발걸음이 무섭게 빨라지고 있어요. 그동안 텍스트 생성형 AI로 세상을 놀라게 했던 이들이, 이제는 '음성(Audio)'과 '하드웨어(Hardware)'라는 새로운 전장으로 눈을 돌리고 있거든요.
최근 보도에 따르면 OpenAI는 올해 1분기 중으로 인간처럼 감정을 싣고 대화하며, 말하는 도중 끼어들어도 자연스럽게 대화가 이어지는 획기적인 오디오 모델을 내놓을 예정이라고 해요. 이는 단순히 챗GPT(ChatGPT)의 기능을 조금 개선하는 차원을 넘어, 궁극적으로 스크린이 없는 'AI 전용 디바이스'를 출시하기 위한 큰 그림의 일부예요.
애플(Apple)의 전설적인 디자이너 조니 아이브(Jony Ive)가 주도한다고 알려진 이 기기는, 스마트폰 화면에 갇힌 인류를 구원하겠다는 철학을 담고 있다고 해요. 고개를 숙이고 화면을 들여다보는 대신 AI와 자연스럽게 대화하며 일상을 영위하는 세상, 마치 영화 <Her>의 장면들이 현실로 다가오는 셈이죠. 이 기기는 단순한 명령 수행자가 아니라 사용자의 목표 달성을 돕고 정서적으로 교감하는 능동적인 '동반자(Companion)'를 지향한다고 해요.
그러나 빛이 강할수록 그림자는 짙은 법이죠. 기술적 기대감이 최고조에 달한 바로 이 시점에, 샘 알트만(Sam Altman) CEO가 긴급하게 '준비성(Preparedness) 총괄'을 찾는다는 사실은 우리에게 시사하는 바가 커요.
알트만은 채용 공고를 통해 “2025년에 우리는 AI가 정신 건강에 미치는 잠재적 영향을 미리 보았다”며 우려를 표했거든요. 실제로 지난 한 해 동안 AI 챗봇에 지나치게 의존하거나 정서적 영향을 받아 발생한 비극적인 사건들과 소송은 AI가 가진 양면성을 아주 적나라하게 보여주었으니까요.
여기에 OpenAI가 직면한 모순이 숨어 있어요. 조니 아이브는 시각적인 스크린 중독을 해결하기 위해 '음성'을 택했지만, 인간보다 더 인간 같은 목소리와 공감 능력을 갖춘 AI는 시각적 중독보다 더 깊고 위험한 '정서적 종속'을 낳을 가능성이 있거든요.
더욱이 릴리안 웡(Lilian Weng)을 비롯한 안전 담당 핵심 임원들이 잇따라 회사를 떠난 상황에서, 기술 개발 속도가 안전장치 마련 속도를 앞지르고 있다는 지적은 뼈아플 수밖에 없어요.
OpenAI는 엔지니어링 조직을 통합하며 기술적 완성도를 높이는 데 사활을 걸고 있어요. 인류의 새로운 동반자가 괴물이 되지 않도록, 지금은 단순한 감탄보다는 냉철한 감시가 더욱 필요한 시점인 것 같아요.

AI는 유령을 소환한다? 서튼과 카파시의 논쟁
최근 AI 학계의 거물인 리처드 서튼(Rich Sutton)과 드와르케시 파텔(Dwarkesh Patel)의 대담이 현대 AI 연구자들에게 아주 흥미로운 화두를 던졌어요. 강화학습의 아버지라 불리는 서튼이 주창한 '쓴 교훈(The Bitter Lesson)'은 인간의 인위적인 개입을 최소화하고 계산 능력(Compute)을 늘리는 것이 장기적으로 승리한다는 이론으로, 이는 현재 거대언어모델(LLM) 개발의 성서와도 같은 원칙이에요.
하지만 아이러니하게도 서튼 본인은 정작 현재의 LLM이 자신의 '쓴 교훈'에 충실하지 않다고 비판하고 나섰어요. 현재의 AI 모델들이 인간이 생성한 유한하고 편향된 데이터에 지나치게 의존하고 있다는 이유에서죠.
그는 대신 앨런 튜링(Alan Turing)이 말한 '아동 기계(Child Machine)'처럼, 백지상태에서 스스로 경험과 상호작용을 통해 배우는 순수한 강화학습 모델, 즉 '다람쥐' 같은 지능을 이해하는 것이 AI의 정답이라고 주장해요.
이에 대한 안드레 카파시(Andrej Karpathy)의 반박은 날카롭고도 깊은 통찰력을 보여줘요. 카파시는 동물의 뇌가 결코 서튼이 말한 '백지(Tabula Rasa)' 상태가 아니라는 점을 지적해요.
갓 태어난 얼룩말이 불과 몇 분 만에 벌떡 일어나 뛰어다니는 것은 학습의 결과가 아니라, 수십억 년에 걸친 진화를 통해 DNA에 새겨진 강력한 '초기값' 덕분이라는 것이죠. 만약 순수 강화학습 에이전트처럼 태어나자마자 무작위로 근육을 움직이며 처음부터 배워야 한다면, 그 얼룩말은 포식자에게 잡혀 생존할 수 없었을 테니까요.
카파시는 "사전 학습(Pretraining)은 우리의 조잡한 진화 과정"이라고 정의해요. 우리는 생물학적인 진화 과정을 다시 돌릴 수 없기에, 대신 방대한 인터넷 데이터를 통해 AI에게 일종의 '디지털 DNA'를 심어준 셈이라는 거죠. 이는 텅 빈 상태에서 시작해야 하는 막막한 '콜드 스타트(Cold Start)' 문제를 해결하는 가장 현실적이고 효율적인 방법이에요.
결국 카파시는 현재의 LLM 연구가 생물학적인 동물을 만드는 것이 아니라, 과거의 데이터인 '유령(Ghosts)'을 소환하는 과정이라고 비유해요. LLM은 인류가 남긴 텍스트의 통계적 증류물이며, 인간 지성의 불완전한 복제품이라는 것이죠.
생물학적 동물과는 근본적으로 다른 지능의 형태예요. 비유하자면 비행기와 새의 관계와 같다고나 할까요? 비행기는 새처럼 날갯짓을 하지는 않지만, 새와는 전혀 다른 양력의 원리로 하늘을 날며 세상을 바꾸었잖아요.
물론 서튼의 주장처럼 동물의 호기심이나 내적 동기 부여 방식은 여전히 우리가 참고해야 할 중요한 영감임은 분명해요. 하지만 우리가 굳이 새를 흉내 내지 않고도 비행기를 띄웠듯, 인간의 데이터를 먹고 자란 이 '유령'들 또한 독자적인 방식으로 진화하며 우리를 돕게 될 거예요.
'욕구'의 부상!
'채용 한파'라는 말이 무색할 정도로 신입 구직자들에게 유독 가혹한 겨울이 닥쳤어요. 최근 통계에 따르면 올해 대기업 신입 채용 공고는 전년 대비 43%나 급감했다고 해요. 기업들은 더 이상 '잠재력 있는 신입'을 뽑아 교육하는 데 비용을 쓰려 하지 않아요. AI 전환(AX)이 가속화되면서 그동안 팀 단위로 처리하던 업무를 AI가 대체하고, 단순 코딩이나 문서 작성 같은 초급 업무는 자동화되었기 때문이죠. 바야흐로 '일자리 소멸'의 공포가 현실화된 듯해 마음이 무겁습니다.
그러나 이 현상을 단순히 '기술이 인간을 대체하는 위기'로만 해석하면 반쪽짜리 진실만 보게 되는 거예요. 현장의 목소리와 AI 선도 기업들의 전망을 종합해 보면, 지금 우리는 '기능(Ability)' 중심의 노동에서 '욕구(Desire)'와 '주체성(Agency)' 중심의 노동으로 넘어가는 거대한 변곡점에 서 있다는 걸 알 수 있어요.
기업들이 신입 채용을 줄이면서도 한편으로는 “쓸만한 인재가 없다”고 아우성치는 이유는 명확해요. 단순히 AI 툴을 쓸 줄 아는 기능인이 아니라, 직무에 대한 깊은 이해를 바탕으로 AI를 지휘할 수 있는 '통찰력 있는 인재'를 간절히 원하기 때문이에요.
한 IT 교육 관계자가 “AI 기술을 배우기에 앞서 레거시(Legacy)와 기본기를 먼저 공부해야 한다”고 강조한 것도 같은 맥락이죠. '어떻게(How)' 만들지는 AI가 순식간에 해결해 줄 수 있지만, '왜(Why)' 만들어야 하는지, 그리고 '무엇을(What)' 만들어야 할지 판단하고 결정하는 것은 여전히 인간의 고유한 몫으로 남았기 때문이에요.
이러한 흐름은 OpenAI의 제이슨 권(Jason Kwon) CSO가 언급한 “능력보다 욕구가 중요한 시대”라는 전망과 정확히 맞닿아 있어요. 과거에는 반짝이는 아이디어가 있어도 코딩이나 디자인 같은 기술적 장벽(능력의 부재) 때문에 실현하지 못하고 포기하는 경우가 많았죠.
하지만 AGI 시대로 진입하는 지금, AI는 개인에게 수 명, 아니 수십 명의 '가상 동료' 역할을 수행하며 업무 능력을 폭발적으로 확장해 줘요. 이제 중요한 것은 머릿속에 든 지식의 양이 아니라, 무언가를 해내고 싶다는 강력한 '욕구'와 이를 끝까지 밀어붙이는 '추진력'이에요.
결국 AI가 촉발한 채용 시장의 양극화는 '시키는 일을 잘하는 사람'의 설 자리가 사라지고, '스스로 일을 정의하고 주도하는 사람'의 가치가 극대화되는 과정이라고 볼 수 있어요. 취업 준비생들에게는 당장 가혹한 시련처럼 느껴지겠지만, 관점을 조금만 바꾸면 엄청난 기회이기도 해요.
과거에는 대기업에 입사해야만 가능했던 거대 규모의 프로젝트를, 이제는 AI라는 레버리지(Leverage, 지렛대)를 활용해 개인이나 소규모 팀 단위에서도 충분히 수행할 수 있게 되었으니까요.
지금 우리에게 필요한 스펙은 단순한 툴 조작 능력이 아니에요. AI가 내놓은 결과물의 진위를 가려낼 수 있는 탄탄한 직무 기본기, 그리고 AI를 도구 삼아 자신만의 비전을 실현하려는 주체적인 욕구가 무엇보다 중요해졌어요.
신년에도 변하지 않아
인공태양(Artificial Sun)의 뜨거운 열기부터 냉혹한 채용 시장의 현실까지, 숨 가쁘게 달려온 AI의 현재와 미래를 함께 짚어보았어요. 오늘 살펴본 것처럼 기술은 우리에게 '창의적 해방'과 '무한한 가능성'을 약속하지만, 동시에 '에너지 위기'나 '정서적 종속' 같은 묵직한 숙제도 함께 안겨주었죠.
결국 이 모든 변화의 키(Key)는 여전히 '사람'이 쥐고 있어야 해요. AI는 데이터를 처리할 뿐, 스스로 꿈을 꾸거나 책임을 지지는 않으니까요. 무엇을 지키고 어디로 나아갈지 결정하는 것은 오직 우리만이 할 수 있는 고유의 영역이에요.
거대한 파도처럼 밀려오는 AI 시대, 그 힘에 휩쓸리기보다는 파도 위에 올라타 멋지게 서핑(Surfing)하듯, 주도적으로 에코 멤버님들의 미래를 설계해 나가는 여정이 되기를 진심으로 응원할게요.

Cinnamomo di Moscata (글쓴이) 소개
게임 기획자입니다. https://www.instagram.com/cinnamomo_di_moscata/
(1) Rachel Kremen. (2025). Artificially intelligent control system for fusion energy devices wins the 2025 Kaul Foundation Prize. PPPL. https://www.pppl.gov/news/2025/artificially-intelligent-control-system-fusion-energy-devices-wins-2025-kaul-foundation
(2) SciTech Era. (2025). "A fusion control breakthrough just won a major U.S. Science award. This is BIG: Because a 3D magnetic fields and AI just changed fusion control. Scientists at PPPL have demonstrated a new way to control nuclear fusion plasma using 3D magnetic field shaping guided by real time https://t.co/W6DMTTN59Z". X. https://x.com/SciTechera/status/2005189194134798336
(3) Martha Muir. (2025). Data centres turn to aircraft engines to avoid grid connection delays. Financial Times. https://www.ft.com/content/8deb1518-b650-4a21-b7d1-3e6180560056
(4) Kyle Curran. (2025). Obbe Vermeij exclusive: what it was really like creating the classic Grand Theft Auto trilogy, how he is returning to his roots with his new game, and why GTA VI will not be the first $100 game. GamesHub. https://www.gameshub.com/news/article/obbe-vermeij-interview-2849146/
(5) Stephanie Palazzolo. (2026). OpenAI Ramps Up Audio AI Efforts Ahead of Device. The Information. https://www.theinformation.com/articles/openai-ramps-audio-ai-efforts-ahead-device
(6) Sam Altman. (2025). "We are hiring a Head of Preparedness. This is a critical role at an important time; models are improving quickly and are now capable of many great things, but they are also starting to present some real challenges. The potential impact of models on mental health was something we". X. https://x.com/sama/status/2004939524216910323
(7) Cheyenne MacDonald. (2025). OpenAI is hiring a new Head of Preparedness to try to predict and mitigate AI's harms. Engadget. https://www.engadget.com/ai/openai-is-hiring-a-new-head-of-preparedness-to-try-to-predict-and-mitigate-ais-harms-220330486.html
(8) Andrej Karpathy. (2025). "Finally had a chance to listen through this pod with Sutton, which was interesting and amusing. As background, Sutton's "The Bitter Lesson" has become a bit of biblical text in frontier LLM circles. Researchers routinely talk about and ask whether this or that approach or idea". X. https://x.com/karpathy/status/1973435013875314729
(9) 김영욱. (2025). AI가 촉발한 신입채용 한파… "인재 없다" vs "일자리 없다" 양극화 심화. 디지털타임스. https://www.dt.co.kr/article/12037749
(10) 홍상지. (2026). “AI가 다 하는 시대…인간은 능력보다 욕구가 중요해진다”. 중앙일보. https://www.joongang.co.kr/article/25394325
