공존의 시대

공존의 시대

Cinnamomo di Moscata

'발견'의 시대 대신, '설계'의 시대

10년이라는 긴 시간, 그리고 3조 원에 달하는 천문학적인 비용."그동안 제약 업계에서 하나의 신약(New Drug)을 세상에 내놓기 위해 치러야 했던 통상적인 대가예요. 마치 망망대해의 모래사장 속에서 바늘 하나를 찾는 심정으로, 연구진들은 수만 개의 후보 물질을 일일이 실험하고 수없이 많은 실패의 쓴잔을 마셔야만 했죠. 하지만 그 견고했던 철옹성에 최근 거대한 균열이 가기 시작했어요. 바로 AI라는 강력하고 새로운 도구가 등장하면서부터죠.

최근 미국의 바이오 기업인 제너레이트바이오메디슨(Generate:Biomedicines)이 개발한 중증 천식 치료제 'GB-0895'가 글로벌 임상 3상(Phase 3 Clinical Trials)에 진입했다는 소식이 들려왔어요. 이 뉴스가 바이오 산업 전체에 던지는 메시지는 결코 가볍지 않아요.

AI가 직접 설계한 단백질 신약이, 실제 환자 치료를 목전에 둔 최종 관문인 임상 3상에 도달한 세계 최초의 사례이기 때문이에요. 무엇보다 우리를 놀라게 하는 건 바로 '속도'예요. 보통 임상 3상에 진입하기까지만 8년에서 10년이 걸리던 지루한 과정을, 이들은 불과 4년 만에 주파해 버렸거든요.

이 놀라운 혁신의 비결은 바로 '생성형 AI(Generative AI)'에 있어요. 과거의 신약 개발이 무수한 후보 물질 중에서 우연히 효과가 있는 것을 찾아내는 운과 끈기의 '발견(Discovery)' 과정이었다면, AI 시대의 신약 개발은 목표하는 질환에 딱 들어맞는 단백질 구조를 역으로 계산하고 만들어내는 정교한 '설계(Engineering)'의 영역으로 진화했어요.

제너레이트바이오메디슨은 이 혁신적인 방식을 통해 시행착오를 획기적으로 줄였고, 미국 식품의약국(FDA)의 패스트 트랙(Fast Track) 제도를 영리하게 활용해 임상 2상을 과감히 생략하는 놀라운 효율성을 보여주었어요.

사실 이러한 흐름은 비단 벤처 기업만의 이야기가 아니에요. 글로벌 제약 공룡인 화이자(Pfizer) 역시 AI를 적극적으로 활용해 코로나19 백신을 불과 10개월 만에 개발해낸 전력이 있죠.

오동욱 화이자코리아 대표의 말처럼, 이제 AI는 고학력 인력이 수개월을 꼬박 매달려야 했던 복잡한 데이터 분석과 서류 작업을 단 며칠 만에 끝내버려요. 바야흐로 우리는 "매달, 혹은 매년 혁신적인 신약을 목격할 수 있는 시대"를 눈앞에 두고 있는 셈이에요.

하지만 AI 신약 개발이 가지는 진짜 가치는 단순히 제약 회사의 산업적 이익에 그치지 않아요. 기존에 1~2개월마다 주사를 맞아야 했던 환자들의 투여 주기를 6개월로 늘려 삶의 질을 높일 수 있고, 비용 문제로 소외되었던 개발도상국의 의료 사각지대를 해소하는 데에도 크게 기여할 수 있거든요.

맥킨지(McKinsey)가 예측한 수백조 원의 경제적 가치보다 더 빛나는 것은, 바로 인류의 건강 증진이라는 본질적 가치일 거예요. 이제 신약 개발은 인간의 직관과 우연에 의존하던 시대를 지나, 데이터와 알고리즘이 정교하게 빚어내는 '설계의 시대'로 당당히 들어섰답니다.

수학에서 물리학으로! AI 하드웨어의 새로운 해법

생성형 AI의 시대가 활짝 열리면서 인류는 전례 없는 '컴퓨팅 파워(Computing Power)'의 위기를 맞이하고 있어요. LLM 하나를 학습하고 구동하는 데 들어가는 에너지가 수천 가구가 일 년 동안 쓰는 전력량과 맞먹는다는 사실, 알고 계셨나요? 도대체 이 비효율의 근본 원인은 무엇일까요?

구글 퀀텀 AI(Google Quantum AI) 연구원 출신인 기욤 베르동(Guillaume Verdon)이 설립한 스타트업 '익스트로픽(Extropic)'은 그 답을 하드웨어와 소프트웨어의 '불일치'에서 찾았어요. 그리고 긴 연구 끝에 그들은 수학적 연산 대신 '물리학'을 해답으로 제시하며, 새로운 개념의 하드웨어인 '열역학 샘플링 장치(Thermodynamic Sampling Unit, TSU)'를 마침내 세상에 내놓았어요.

현재 AI 시장을 지배하고 있는 GPU는 기본적으로 결정론적(Deterministic) 도구예요. 0과 1이 명확하게 딱 떨어지는 이 장치는, 확률적 결과를 내놓아야 하는 생성형 AI를 구동하기 위해 수많은 행렬 연산을 수행하며 억지로 난수(Random Number)를 만들어내요.

비유하자면, 정교한 수술용 메스가 필요한 곳에 무거운 전기톱을 들이미는 격이나 다름없죠. 반면, 익스트로픽이 개발한 TSU는 'p비트(Probabilistic bit)'라는 완전히 새로운 소자를 통해 0과 1 사이를 확률적으로 오가요. 기존 반도체 공학이 마치 적군처럼 여기며 싸워왔던 '열잡음(Thermal Noise)'을 오히려 연산의 핵심 자원으로 포용하여, 자연스러운 물리적 요동을 통해 확률 분포를 직접 구현해 내는 방식이죠.

이러한 접근은 "생성형 AI의 본질은 곧 샘플링(Sampling)"이라는 사실을 정확히 꿰뚫고 있어요. GPU가 복잡한 수학적 기교를 통해 확률을 흉내 내는 연기자라면, TSU는 물리학적 현상을 통해 확률 그 자체가 되는 셈이죠.

엑스트로픽이 패션 MNIST(Fashion MNIST)와 같은 특정 벤치마크 테스트에서 GPU 대비 무려 1만 배의 전력 효율을 달성했다고 자신하는 배경이 바로 여기에 있어요. 데이터가 에너지가 낮은 평형 상태를 찾아가는 자연의 원리를 그대로 이용함으로써, 막대한 연산 비용을 획기적으로 절감한 거예요.

물론 넘어야 할 산은 아직 높고 험난해요. 이제 막 시제품이 완성되었을 뿐이거든요. 2025년에 개발자 키트(Dev Kit)를 내놓고, 2026년에 상용 칩인 'Z1'을 출시하겠다는 로드맵이 성공하더라도, 엔비디아(NVIDIA)가 구축한 쿠다(CUDA) 생태계의 철옹성을 뚫는 것은 또 다른 문제예요. 게다가 기존 알고리즘을 이 낯선 확률론적 하드웨어에 맞게 재설계해야 하는 소프트웨어 난제도 남아 있고요. 하지만 "물리학이 수학을 이긴다(Physics beats Math)"는 그들의 도발적인 슬로건은 우리에게 시사하는 바가 커요.

생각해 보면 자연은 본래 확률적이에요. 인간의 뇌도, 양자 역학도, 열역학도 모두 불확실성을 기반으로 작동하죠. AI가 더 고도화될수록, 이를 담는 그릇 또한 자연의 섭리를 닮아가는 것은 어쩌면 필연일지도 몰라요. 혼돈을 통제하는 것이 아니라 계산의 도구로 삼는 익스트로픽의 이 대담한 도박이, 다가올 에너지 장벽 앞에서 AI 산업의 새로운 탈출구가 될 수 있을지 우리 모두 주목해 볼 필요가 있어요.

익스트로픽AI가 공개한 시제품 칩, X0

무너지는 OpenAI의 또다른 방어선!

생성형 AI의 눈부신 발전 뒤에 숨겨진 '원죄'가 서서히 그 실체를 드러내고 있어요. 지난 11월 26일, 미국 법원에서 내려진 결정은 OpenAI가 그동안 굳건히 쌓아 올린 저작권 방어 논리에 치명적인 균열을 냈어요.

오나 왕(Ona Wang) 판사는 OpenAI가 불법 복제 도서 데이터셋인 'Books1'과 'Books2'를 삭제한 배경이 담긴 내부 문건을 공개해야 한다고 판결했거든요. 이는 단순한 절차적 패배를 넘어, 거대 AI 기업들이 저작권법을 대하는 태도에 엄중한 경종을 울리는 사건이에요.

이번 소송의 쟁점은 아주 명확해요. OpenAI가 저작권을 침해한 데이터를 학습에 사용했는지, 그리고 더 나아가 법적 문제를 이미 알고도 증거를 인멸하려 했는지 여부죠. 그동안 OpenAI는 해당 데이터셋을 "사용하지 않아서(non-use)" 삭제했다고 주장해 왔어요.

그러나 법원은 OpenAI가 처음에는 '미사용'이라는 이유를 내세웠다가, 상황이 불리해지자 다시 '변호사비밀유지권(Attorney-Client Privilege)' 뒤로 숨으려 한 이중적인 행태를 강하게 비판했어요. 왕 판사는 이를 두고 "특권 주장의 대상을 계속 바꾸는 행위(moving target)"라며, 스스로 법적 보호막을 걷어찼다고 지적했죠. 명백한 자승자박인 셈이에요.

이제 원고 측인 작가들은 OpenAI 직원들이 '프로젝트-클리어(project-clear)'나 '엑사이즈-립젠(excise-libgen, 불법 도서관 삭제)'과 같은 사내 슬랙(Slack) 채널에서 나눈 은밀한 대화를 낱낱이 들여다볼 수 있게 되었어요.

만약 이 대화 속에서 저작권 침해를 인지하고도 고의로 데이터를 삭제한 정황이 조금이라도 포착된다면, OpenAI는 '고의적 침해(willful infringement)' 혐의를 피할 수 없게 돼요. 이 경우 작품당 손해배상액은 15만 달러까지 치솟으며, 전체 배상액은 수십억 달러에 이르는 천문학적인 규모가 될 수도 있어요.

더욱 주목해야 할 점은 AI 소송의 흐름이 근본적으로 변하고 있다는 거예요. 과거에는 데이터가 모델 '학습'에 사용되었는가가 핵심 쟁점이었으나, 이제는 불법 데이터를 '다운로드하고 저장한 행위' 자체만으로도 책임을 묻는 추세로 바뀌고 있어요. 이미 앤트로픽(Anthropic)이 유사한 쟁점에서 불리한 판결을 받은 뒤 15억 달러라는 거액으로 합의한 사례는 이를 잘 증명해주죠.

기술 혁신이라는 미명 아래 "일단 수집하고 나중에 해결하자"는 식의 관행은 이제 명백한 한계에 봉착했어요. OpenAI가 삭제한 것은 단순한 데이터 파일이 아니라, 창작자들에 대한 존중과 법적 책임이었을지도 몰라요. 이제 그 '삭제된 도서관'의 진실이 법정에서 명명백백히 밝혀질 순간이 다가오고 있어요. OpenAI는 더 이상 기술의 화려한 장막 뒤에 숨을 수 없으며, 그 대가는 생각보다 혹독할 수 있답니다.

수프 전쟁?!

한편, 최근 실리콘밸리의 AI 인재 쟁탈전은 마치 한 편의 블랙코미디를 보는 것 같아요. 마크 저커버그(Mark Zuckerberg) 메타(Meta) CEO가 OpenAI의 연구원 영입을 위해 직접 끓인 수프를 배달했다는 일화는, 이 전쟁이 얼마나 치열하고 감정적인 영역까지 넘어갔는지를 단적으로 보여주죠.

하지만 이에 대한 마크 첸(Mark Chen) OpenAI 부사장의 반응은 여유롭다 못해 냉철하기까지 해요. "차라리 미슐랭 스타급 수프를 사서 보내는 게 낫겠다"는 그의 농담 뒤에는, 단순히 높은 연봉이나 복지로는 결코 흔들 수 없는 OpenAI만의 강력한 무기가 숨겨져 있거든요. 바로 'AGI(범용인공지능)'의 최초 개발자가 될 것이라는 구성원들의 확고한 믿음이에요.

마크 첸이 밝힌 OpenAI의 자신감은 막연한 낙관론이 아닌, 철저한 '탐험적 연구(Exploratory Research)' 전략에서 기인해요. 그들은 경쟁사의 벤치마크 점수를 1~2점 앞서는 것에 연연하지 않아요. 남들이 거들떠보지 않던 2년 전, 추론(Reasoning) 모델에 과감히 자원을 배분해 'o1' 모델을 성공시킨 사례가 이를 증명하죠.

최근 구글(Google)이 내놓은 '제미나이 3(Gemini 3)'에 대해 "훌륭한 모델"이라 쿨하게 인정하면서도, 내부적으로는 이미 그 이상의 모델과 데이터 효율성을 갖췄다고 공언하는 배경에는 이러한 독자적인 연구 로드맵이 존재해요.

여기서 우리가 주목해야 할 점은 OpenAI가 정의하는 AGI의 기준이 바뀌고 있다는 사실이에요. 더 이상 그럴듯한 텍스트를 생성하는 것이 목표가 아니에요. 마크 첸은 "새로운 과학적 지식을 생산할 수 있는가"를 진정한 AGI의 척도로 제시했어요.

수학 난제 해결과 코딩 대회에서 인간의 직관을 뛰어넘는 '알파고 모먼트(AlphaGo Moment)'를 목격한 그들은, 이제 1년 내에 'AI 인턴' 수준의 연구 보조를, 2.5년 내에는 아이디어 제안부터 디버깅까지 수행하는 '엔드-투-엔드(End-to-End) 연구' AI를 목표로 하고 있거든요.

여기에 전 애플(Apple)의 전설적인 디자이너 조니 아이브(Jony Ive)와의 협업은 하드웨어 측면에서의 혁신까지 예고하고 있어요.

단순히 질문에 답하고 끝나는 챗봇이 아니라, 사용자와의 상호작용을 기억하고 스스로 생각하는(Thinking-native) 기기의 등장은 AI의 패러다임을 또 한 번 바꿀 잠재력을 지니고 있죠.

"지금은 산업혁명과 같은 시기이기에 이 순간을 낭비하고 싶지 않다"며 새벽까지 연구에 몰두하는 OpenAI의 워커홀릭 문화는 그들의 기술적 성취가 결코 우연이 아님을 보여줘요.

수프 한 그릇으로 시작된 영입 전쟁의 소란스러운 소음 속에서도, OpenAI는 묵묵히 그리고 치열하게 자신들만의 속도로 AGI라는 결승선을 향해 질주하고 있어요.

경쟁자들이 수프를 끓일 때, 그들은 새로운 과학을 발견하고 있는 셈이죠. 이것이 바로 OpenAI가 인재를 지키고, 시장을 리드하는 진짜 비결 아닐까요?

마늘의 반격!

2025년 현재, 생성형 AI 시장의 판도는 다시금 요동치고 있어요. 한동안 독주 체제를 굳히는 듯했던 OpenAI가 구글(Google)의 최신 모델 '제미나이 3(Gemini 3)'의 맹추격에 주춤하는 사이, 실리콘밸리의 여론은 구글의 기술적 우위를 점치는 쪽으로 기울었거든요.

샘 알트만(Sam Altman) CEO가 사내에 '코드 레드(Code Red)'를 발령하고 비상 경영 체제에 돌입했다는 사실은 그들이 느끼는 위기감이 얼마나 실재적인지를 잘 보여줘요. 그러나 최근 OpenAI가 꺼내 든 반격의 카드는 그 이름만큼이나 자극적이고 흥미로워요. 바로 코드명 '갈릭(Garlic)', 즉 고소하고 매콤한 '마늘'이에요.

내부 관계자에 따르면, OpenAI의 최고 연구 책임자 마크 첸(Mark Chen)은 '갈릭'이 사내 평가에서 구글의 제미나이 3와 앤트로픽(Anthropic)의 오퍼스 4.5(Opus 4.5)를 상대로 매우 우수한 성과를 기록했다고 밝혔어요.

특히 코딩과 추론 영역에서의 약진이 두드러진다고 해요. 하지만 '갈릭'이 주목받는 진짜 이유는 단순한 벤치마크 점수가 아니에요. 이 모델이 보여주는 기술적 지향점의 변화, 즉 '효율성'에 그 핵심이 있답니다.

그동안 AI 모델 경쟁은 "더 크게, 더 많이"라는 거대함의 싸움이었어요. 그러나 첸의 설명에 따르면, 갈릭은 과거 훨씬 더 큰 모델을 개발해야만 얻을 수 있었던 방대한 지식의 양을 더 작은 모델에 주입하는 데 성공했어요.

이는 OpenAI가 '사전 학습(Pre-training)' 과정에서 겪었던 뼈아픈 버그를 수정하고, 실패로 돌아간 것으로 평가받는 GPT-4.5의 교훈을 철저히 흡수한 결과예요. 막대한 비용과 시간이 소요되는 거대 모델 대신, 효율적인 '경량 고성능' 모델로 패러다임을 전환하겠다는 의지로 읽히는 대목이죠.

물론 섣부른 낙관은 금물이에요. 우리는 이미 내부 평가에서는 혁신적이었으나 실제 출시 후 시장의 냉담한 반응을 얻었던 사례들을 수차례 목격했잖아요? GPT-5에 대한 초기 반응이 그랬듯, 실험실의 데이터가 곧바로 현실 세계의 복잡한 문제 해결 능력으로 직결되지는 않아요. 마크 첸의 발언 역시 침체된 내부 조직의 사기를 북돋우기 위한 리더의 수사(Rhetoric) 일 수 있음을 배제할 수는 없겠죠.

결국 '갈릭'의 성공 여부는 단순히 OpenAI가 1위 자리를 탈환하느냐의 문제를 넘어섭니다. 이것은 AI 기술 발전이 정체기에 접어들었는지, 아니면 여전히 우리가 발견하지 못한 '새로운 경쟁 우위'가 남아있는지를 가늠할 중요한 리트머스 시험지가 될 거예요. 내년 초, GPT-5.2나 GPT-5.5 등의 이름으로 우리 앞에 등장할 수도 있는 이 매운맛 '갈릭'이 과연 구글의 제미나이 3가 세운 높은 벽을 넘어설 수 있을지, 전 세계 테크 업계의 이목이 집중되고 있어요.

앤트로픽이 일하는 방식!

2025년 12월 3일, AI 기업 앤트로픽(Anthropic)이 매우 흥미로운 보고서를 하나 발표했어요. "AI가 노동을 어떻게 바꾸는가?"라는 거대한 질문에 답하기 위해, 그들은 외부가 아닌 내부로 시선을 돌렸죠.

자신들의 AI 모델인 '클로드(Claude)'를 가장 먼저, 그리고 가장 깊이 있게 사용하는 132명의 자사 엔지니어와 연구원들을 직접 조사한 거예요. 이른바 '등잔 밑'을 밝힌 이 보고서는 다가올 AI 시대의 노동 환경을 미리 보여주는 예고편과도 같아요.

보고서에 드러난 수치는 실로 놀라워요. 엔지니어들은 업무의 60%에 AI를 활용하고 있었으며, 이를 통해 전년 대비 2~3배에 달하는 50%의 생산성 향상을 경험했다고 답했거든요. 가장 눈에 띄는 변화는 개개인의 '풀스택(Full-stack)'화예요.백엔드(Back-end) 개발자가 AI의 도움을 받아 프론트엔드(Front-end) 작업을 능숙하게 처리하고, 보안 팀이 익숙지 않은 코드를 분석해 내는 식이죠.

과거에는 비용 대비 효과가 낮아 방치했던 소위 '페이퍼컷(Papercut)' 같은 자잘한 오류 수정이나 도구 개발도 AI 덕분에 활발해졌어요. AI는 이제 단순한 도구를 넘어 인간의 능력을 확장하는 든든한 파트너로 자리 잡은 듯해요.

하지만 빛이 강하면 그림자도 짙은 법이죠. 보고서는 생산성의 환호 뒤에 숨겨진 '숙련도의 역설'과 불안감을 가감 없이 드러냈어요. 엔지니어들은 AI가 코딩을 대신해주면서 깊이 있는 기술적 역량을 쌓을 기회가 줄어드는 것을 우려하기 시작했어요.

결과물을 검증하고 감독할 능력은 여전히 인간에게 요구되는데, 직접 부딪히며 배우는 과정이 생략되면서 그 안목을 어떻게 기를 것인가에 대한 딜레마가 생긴 거예요. "코드를 짜는 즐거움보다 결과물을 얻는 즐거움이 커졌다"는 한 엔지니어의 고백은 효율성 뒤에 가려진 장인 정신의 위기를 보여줘요.

더욱 뼈아픈 지점은 일터의 풍경 변화예요. 과거 선배나 동료에게 묻던 질문들은 이제 AI가 처리해요. 업무 효율은 극대화되었지만, 인간적인 교류와 멘토링의 기회는 눈에 띄게 줄어들었죠. "동료가 덜 필요해져서 슬프다"는 한 엔지니어의 말은 기술이 결코 채워줄 수 없는 인간관계의 빈자리를 상징해요. 또한, 자신이 만든 AI가 결국 자신의 일자리를 없앨지도 모른다는 근원적인 공포와 직업적 정체성에 대한 혼란도 감지되었고요.

앤트로픽의 엔지니어들이 겪는 변화는 결코 특수한 사례가 아니에요. 이는 곧 모든 지식 노동자가 마주할 미래의 모습이죠. AI는 분명 우리에게 더 많은 성취와 여유를 줄 것이지만, 동시에 우리가 쌓아온 전문성의 정의를 다시 내리라고 요구할 거예요.

기술적 편리함에 취해 스스로 생각하는 힘과 동료와의 유대를 잃지 않도록 늘 경계해야 해요. 앤트로픽의 보고서는 AI 기술의 발전 속도만큼이나, 변화하는 노동 환경 속에서 '인간다움'을 어떻게 지킬 것인가에 대한 진지한 고민이 시급함을 역설하고 있답니다.

'벽'은 없다! 확장의 한계를 넘어서

최근 AI 업계의 가장 큰 화두는 단연 '확장의 한계(Hitting the wall)'였어요. 데이터와 연산량을 무한정 늘려도 모델 성능 향상이 정체된다는 비관론이 고개를 들던 바로 그 시점, 중국의 오픈소스 AI 기업 딥시크(DeepSeek)가 내놓은 'DeepSeek-V3.2'는 이 논쟁에 강력한 반례를 제시하며 시장을 흔들었어요.

이번 발표의 핵심은 단순히 모델의 덩치를 키우는 것이 아니었어요. 딥시크의 연구원 지빈 고(Zhibin Gou)가 언급했듯, 진정한 돌파구는 '사후 학습(Post-training)'과 '강화 학습(Reinforcement Learning, RL)'의 고도화에 있었거든요.

딥시크는 사전 학습 비용의 10% 이상을 사후 학습에 쏟아부으며, 모델이 정답을 찾아가는 추론 과정을 극한으로 훈련시켰어요. 단순히 지식을 주입하는 것을 넘어, 지식을 활용하는 법을 가르친 셈이죠.

그 결과물인 고성능 버전 'DeepSeek-V3.2-Speciale'의 성과는 실로 놀라워요. 이 모델은 폐쇄형 모델의 최정점에 있는 구글(Google)의 'Gemini-3.0-Pro'와 대등한 추론 능력을 보여주며, 2025년 국제수학올림피아드(IMO)와 국제정보올림피아드(IOI)에서 메달권 성적을 기록했거든요.

GPT-5를 넘어서는 성능을 오픈소스 진영에서 구현해 낸 거예요. 이는 오픈소스 AI 모델이 폐쇄형 모델과의 격차를 좁히는 것을 넘어, 특정 영역에서는 어깨를 나란히 할 수 있음을 증명한 역사적인 사건이라 할 수 있어요.

기술적으로는 'DeepSeek Sparse Attention(DSA)'이라는 효율적인 메커니즘을 도입해 긴 문맥 처리의 연산 비용을 획기적으로 줄인 점도 주목할 만해요. 하지만 무엇보다 중요한 시사점은 AI 성능 향상의 열쇠가 이제 '단순 암기(Pre-training)'에서 '심화 사고(Post-training RL)'로 넘어갔다는 점이에요.

"벽에 부딪혔다는 소음에 멈추지 말고 계속 확장하라." 딥시크 연구진의 이 메시지는 아주 명확해요. 우리가 마주한 것은 기술의 한계가 아니라, 방법론의 전환기일 뿐이라는 거죠.

딥시크의 도약은 AI 겨울(AI Winter)을 우려하던 이들에게 봄이 아직 끝나지 않았음을, 그리고 오픈소스 AI의 저력이 여전히 살아있음을 웅변하고 있어요. 우리는 어쩌면 한계라는 벽이 아니라, 새로운 가능성의 문 앞에 서 있는 것일지도 몰라요.

공존을 위한 과제

마지막으로, 영국의 국립교육연구재단(NFER)이 최근 발표한 보고서는 우리에게 묵직한 질문 하나를 던져요. 2035년까지 자동화와 AI로 인해 영국 내에서만 무려 300만 개의 저숙련 일자리가 사라질 수 있다는 경고죠. 기계 조작이나 행정직 같은 전통적인 일자리는 급격히 줄어드는 반면, 고숙련 전문직에 대한 수요는 오히려 늘어나며 노동 시장의 양극화가 심화될 것이라는 전망이에요.

여기서 우리가 주목해야 할 지점은 단순한 '일자리 감소'라는 공포 섞인 수치가 아니에요. 보고서의 저자 주드 힐러리(Jude Hillary)가 지적했듯, 진짜 위기는 일자리를 잃은 사람들이 새로운 시대가 요구하는 전문 역량을 갖추기까지 겪어야 할 '재교육의 장벽'에 있어요. 기술의 눈부신 진보가 누군가에게는 기회가 되지만, 준비되지 않은 누군가에게는 생존의 위협이 될 수 있다는 냉정한 현실을 직시해야 해요.

결국 신약의 설계부터 하드웨어의 혁신, 법적 공방, 그리고 노동 현장의 변화까지, 오늘 우리가 함께 살펴본 AI의 모든 풍경들은 하나의 결론을 향해 흐르고 있어요. 기술은 인간을 대체하기 위해서가 아니라, 인간과 함께할 때 비로소 완성된다는 사실 말이에요.

다가올 2035년이 소수만 향유하는 차가운 디스토피아가 될지, 모두가 누리는 따뜻한 공존의 시대가 될지는 기술 자체가 아니라, 그 기술을 다루는 에코 멤버님들의 손끝과 마음에 달려 있답니다.


늦잠 자도 되는 세상?
AI는 당신의 일자리를 뺏지 않는다?! 최근 맥킨지 글로벌 연구소(MGI)의 보고서를 접하고 가슴 철렁했던 분들 계실 거예요. 현재 기술로 미국 전체 업무 시간의 약 57%를 자동화할 수 있다는 내용 때문이었죠. 언뜻 내 일자리의 절반 이상이 위협받는다는 공포스런 경고처럼 들리지만, 너무 걱정하지 않으셔도 돼요. 맥킨지의 진짜 메시지는 ‘필연적 실직’이

Cinnamomo di Moscata (글쓴이) 소개

게임 기획자입니다. https://www.instagram.com/cinnamomo_di_moscata/


(1) 이영애. (2025). 인공지능이 개발한 단백질 신약, 최초로 임상 3상 진입. 한국경제. https://www.hankyung.com/article/2025120170021

(2) 정준엽. (2025). 화이자 "AI 활용해 코로나 백신 개발 기간 단축… 매달 신약 나올 수도". 헬스조선. https://m.health.chosun.com/svc/news_view.html?contid=2025120403281

(3) Cogni Down Under. (2025). Extropic TSU Review: Physics Beats Math, and This Startup Just Proved It With a Chip That Thinks in Probabilities. Medium. https://medium.com/@cognidownunder/extropic-tsu-review-physics-beats-math-and-this-startup-just-proved-it-with-a-chip-that-thinks-in-9082868de469

(4) 임주형. (2025). 확률적 계산에 특화된 신개념 컴퓨터…AI 새 시대 열까 [테크토크]. 아시아경제. https://www.asiae.co.kr/article/2025112410515183098

(5) Winston Cho. (2025). OpenAI Loses Key Discovery Battle as It Cedes Ground to Authors in AI Lawsuits. Hollywood Reporter. https://www.hollywoodreporter.com/business/business-news/openai-loses-key-discovery-battle-why-deleted-library-of-pirated-books-1236436363/

(6) Core Memor Podcast. (2025). How OpenAI Shapes Its Research And What's Next - EP 46 Mark Chen. YouTube. https://www.youtube.com/watch?v=ZeyHBM2Y5_4

(7) Stephanie Palazzolo. (2025). OpenAI Developing 'Garlic' Model to Counter Google's Recent Gains. The Information. https://www.theinformation.com/articles/openai-developing-garlic-model-counter-googles-recent-gains

(8) Anthropic AI. (2025). How AI is transforming work at Anthropic. https://www.anthropic.com/research/how-ai-is-transforming-work-at-anthropic

(9) Zhibin Gou. (2025). "If Gemini-3 proved continual scaling pretraining, DeepSeek-V3.2-Speciale proves scaling RL with large context. We spent a year pushing DeepSeek-V3 to its limits. The lesson is post-training bottlenecks are solved by refining methods and data, not just waiting for a better base.". X. https://x.com/zebgou/status/1995462720078934213

(10) DeepSeek-AI. (2025). DeepSeek-V3.2: Pushing the Frontier of Open Large Language Models. HuggingFace. https://huggingface.co/deepseek-ai/DeepSeek-V3.2

(11) Aisha Down. (2025). AI could replace 3m low-skilled jobs in the UK by 2035, research finds. Guardian. https://www.theguardian.com/technology/2025/nov/25/ai-could-replace-3m-low-skilled-jobs-by-2035-research-finds

Comments