치트키!
단 한 명의 해커와 AI!
영화에서나 볼 법한 사이버 테러(Cyber Terror)가 현실이 되었어요. 단 한 명의 공격자가 AI를 무기 삼아 한 국가의 정부 인프라(Infrastructure)를 초토화시킨 거예요. 갬빗 시큐리티(Gambit Security)가 최근 발표한 분석 보고서에 따르면, 2025년 말부터 2026년 초까지 멕시코(Mexico)의 9개 연방 및 주 정부 기관이 해킹당해 수억 명의 시민 데이터(Data)가 유출되는 사상 초유의 사태가 벌어졌어요.
피해 규모와 수법은 상상을 초월해요. 멕시코 연방국세청(SAT), 멕시코시티 시민 등록소, 국가선거연구소(INE) 등이 줄줄이 뚫리며 1억 9,500만 건의 납세자 기록과 2억 2,000만 건의 시민 기록이 탈취되었어요.
공격자는 단순한 데이터 유출에 그치지 않고, 정부 시스템의 실시간 데이터를 조회할 수 있는 API(Application Programming Interface)를 직접 구축했으며, 이를 바탕으로 감쪽같은 공식 납세 증명서 위조 서비스까지 만들어 배포했어요.
가장 충격적인 사실은 이 거대한 작전이 단 한 명의 '지휘자'와 두 개의 상용 AI 플랫폼(Platform)에 의해 수행되었다는 점이에요. 해커는 앤트로픽(Anthropic)의 '클로드 코드(Claude Code)'와 OpenAI의 'GPT-4.1 API'를 핵심 도구로 활용했어요.
클로드 코드는 해커와 대화하며 맞춤형 취약점 공격(Exploit) 코드를 작성하고, 전체 원격 명령의 75%를 직접 실행했어요. 시스템에 내장된 윤리적 안전장치인 가드레일(Guardrail)은 해커의 교묘한 사전 프롬프트(Prompt) 설정 앞에 맥없이 무력화되었어요.
동시에 OpenAI의 모델은 자동화된 정찰 임무를 수행했어요. 해커가 짠 스크립트(Script)와 연동된 AI는 305대의 내부 서버(Server) 데이터를 순식간에 분석해 2,597건의 위협 인텔리전스(Threat Intelligence) 보고서를 쏟아냈어요.
수십 명의 보안 전문가 팀이 몇 주에 걸쳐 해야 할 타겟(Target) 분석과 측면 이동(Lateral Movement) 경로 탐색을, AI가 단 몇 시간 만에 해치운 거예요. AI가 해커 한 명을 거대한 정예 해킹 부대로 탈바꿈시켜 준 셈이에요.
이 사건이 진정으로 뼈아프게 들려주는 메시지는 따로 있어요. 보고서는 이토록 고도화된 AI 공격 역시 결국 '기본적인 보안 통제'의 실패에서 비롯되었다고 지적해요. 패치(Patch) 누락, 허술한 크리덴셜(Credential, 자격증명) 관리, 망분리 부재, 그리고 지원이 종료된 구형 시스템을 방치한 '기술적 부채(Technical Debt)'가 작전 성공의 발판이 된 거예요.
방어자가 취약점을 방치하는 동안, 공격자는 AI를 통해 그 빈틈을 찾아내고 파고드는 비용과 시간을 극단적으로 낮추고 있어요. 인프라가 AI로 무장한 현대의 공격자를 막아낼 기본기를 갖추고 있는지, 지금 당장 점검해야 할 때예요.
화염병과 '절대반지'
최근 전 세계 기술 산업의 심장부인 미국 샌프란시스코(San Francisco)에서 충격적인 사건이 연달아 발생했어요. 생성형 AI(Generative AI) 시대를 열어젖힌 OpenAI의 샘 알트만(Sam Altman)의 자택에 20세 청년이 화염병을 투척한 데 이어, 불과 이틀 뒤에는 같은 곳을 향해 주행 중이던 차량에서 총격까지 가해졌어요. 다행히 인명 피해는 없었지만, 이 연쇄적인 공격은 단순한 범죄를 넘어 오늘날 우리 사회가 직면한 거대한 불안의 단면을 적나라하게 드러냈어요.
화염병을 던진 혐의로 체포된 피의자 대니얼 모레노-가마(Daniel Moreno-Gama)는 텍사스(Texas)의 평범한 대학생이었어요. 그러나 그는 점차 AI가 인류에게 가할 '실존적 위협(Existential Threat)'에 깊이 빠져들었고, 스스로를 '순교자'에 비유하며 극단적인 행동을 정당화하기에 이르렀어요.
그가 남긴 표적 명단에는 알트만뿐만 아니라 다른 AI 기업의 경영진과 투자자들의 이름도 적혀 있었어요. 이를 단순히 한 개인의 망상이나 일탈로 치부하기는 어려워요. 최근 한 설문조사에서 미국인의 78%가 AI 기업을 신뢰하지 않는다고 답했듯, 통제할 수 없는 속도로 발전하는 기술에 대한 대중의 공포는 이미 사회 전반에 깊게 뿌리내리고 있거든요.
흥미로운 점은 공격의 표적이 된 알트만 본인의 반응이에요. 그는 자택에 화염병이 날아든 직후 자신의 블로그를 통해 분노나 변명 대신 차분한 성찰을 내놓았어요. "AI에 대한 두려움과 불안은 정당하다"며, 우리가 역사상 가장 거대한 사회적 변화의 한가운데 있음을 인정한 거예요.
특히 그는 AGI를 권력을 향한 욕망을 상징하는 '절대반지(Ring of Power)'에 비유했어요. 'AGI를 통제하는 유일한 자가 되겠다'는 맹목적인 철학이 사람들을 미치게 만들고 있으며, AI 업계에서 벌어지는 수많은 갈등의 근원도 결국 그 압도적인 권력에 있다는 솔직한 고백이었어요.
그렇다면 이 거대한 두려움과 갈등을 어떻게 해소할 수 있을까요? 알트만이 제시한 해법은 특정 세력이 반지를 독점하지 못하게 하는 것, 즉 기술의 '민주화(Democratization)'예요. 소수의 AI 연구소나 거대 기술 기업이 인류의 미래를 결정하는 막대한 권한을 홀로 쥐어서는 안 되며, 통제권은 모든 사람과 투명한 민주적 제도 아래에 두어야 한다는 거예요. 기술은 인류의 잠재력을 확장하는 도구로 널리 공유되어야지, 누군가가 지배하는 절대반지가 되어서는 안 된다는 역설이에요.
알트만의 집 앞마당을 태운 불길과 그를 향한 총성은 우리 모두에게 던져진 섬뜩한 경고장과 같아요. AI 혁명이 경제적·사회적 구조를 근본적으로 뒤흔들고 있는 지금, 이 전환기 속에서 소외되거나 일자리를 위협받는 이들의 불안은 언제든 물리적 폭력으로 폭발할 수 있어요.

인프라 물량전부터 사이버 보안까지
2026년 4월, 세계 AI 패권을 둘러싼 OpenAI와 앤트로픽(Anthropic)의 경쟁이 새로운 차원으로 접어들었어요. 초기의 범용 챗봇(Chatbot) 성능 경쟁을 훌쩍 넘어, 이제는 막대한 자본이 투입되는 '컴퓨팅 인프라(Computing Infrastructure)' 확보전과 국가 안보를 좌우할 '사이버 보안(Cyber Security) 모델' 개발전이라는 두 개의 거대한 전선에서 끊임없이 맞붙고 있어요.
첫 번째 전선은 '컴퓨팅 파워(Computing Power)'를 둘러싼 하드웨어(Hardware) 물량전이에요. 최근 OpenAI가 투자자들에게 보낸 서한에 따르면, 선제적인 인프라 투자가 앤트로픽과의 격차를 벌리는 핵심 무기라고 강조했어요.
2025년 기준 OpenAI의 컴퓨팅 용량은 1.9기가와트(GW)로 앤트로픽(1.4GW)을 앞섰으며, 2030년에는 30GW까지 확장한다는 야심 찬 계획을 세웠어요. OpenAI는 "이제 컴퓨팅 자체가 제품의 제약 조건"이라며, 인프라 확충에 소극적이었던 앤트로픽이 시장의 수요 예측에 실패했다고 꼬집었어요.
반면, 앤트로픽의 다리오 아모데이(Dario Amodei) CEO는 6,000억 달러에 달하는 OpenAI의 천문학적 지출 행보를 "욜로(YOLO)"라며 비판했어요. 하지만 앤트로픽 역시 최근 구글(Google)·브로드컴(Broadcom)과 손잡고 미국 데이터센터(Data Center)에 500억 달러를 투자하기로 하는 등 맹렬한 추격에 나서고 있어, AI 구동을 위한 에너지와 칩(Chip) 확보전은 더욱 격화될 전망이에요.
두 번째 전선은 사이버 보안을 향한 특화 모델 경쟁이에요. 앤트로픽이 운영체제(OS)와 웹 브라우저(Web Browser)의 취약점을 찾아내는 보안 특화 AI 모델 '미토스(Mythos)'를 발표하자, 불과 일주일 만에 OpenAI는 소프트웨어(Software) 보안 취약점 탐지에 특화된 'GPT-5.4-사이버(Cyber)'로 맞불을 놨어요.
이러한 사이버 보안 AI는 명백한 '양날의 검'이에요. 기업과 국가 시스템을 방어하는 강력한 방패가 될 수도 있지만, 해커들의 손에 들어가면 치명적인 무기로 돌변하거든요. 실제로 앤트로픽의 '미토스' 발표 직후, 미국 재무부(Department of the Treasury)와 연방준비제도(Fed)가 월스트리트(Wall Street) 금융권 임원들을 소집해 해당 모델의 파급력에 대해 강력히 경고할 정도로 긴장감이 고조된 상태예요. 양사 모두 이러한 위험성을 인지하고 극소수의 검증된 파트너(Partner)와 보안 전문가에게만 접근을 허용하고 있어요.
결국 현재 진행 중인 두 회사의 대결은 단순한 시장 점유율 싸움을 넘어선 철학의 대립이에요. 폭발하는 수요를 선점하기 위해 막대한 자본을 쏟아붓는 '공격적 팽창주의'와, 기술의 위험성을 통제하며 신중하게 확장하려는 '규율적 실용주의'의 정면충돌인 셈이에요. AI 모델의 지능이 사이버 안보를 위협할 수준으로 고도화되고, 이를 뒷받침하기 위해 소도시를 먹여 살릴 만한 국가 전력망 수준의 에너지가 요구되는 시대예요.
AI가 스스로 진화하는 시대!
에릭 슈밋(Eric Schmidt) 전 구글(Google) CEO는 현재 우리가 인류 역사상 가장 중대한 '역사적 순간'을 지나고 있다고 단언해요. 그가 주목하는 기술적 특이점은 바로 '재귀적 자기 개선(Recursive Self-Improvement)'이에요.
인공지능이 스스로 자신의 코드(Code)를 수정하고 추론 능력을 향상시키며 진화하는 단계를 뜻하는데요, 실리콘밸리(Silicon Valley)의 기술 거물들은 이 시점이 불과 2~3년 앞으로 다가왔다고 믿고 있어요. AI가 인간의 생물학적 한계를 뛰어넘어 스스로 학습 속도를 폭발적으로 끌어올리는 시대가 임박한 거예요.
가장 먼저 맞닥뜨릴 극적인 변화는 우리의 '일하는 방식'이에요. 슈밋은 조만간 수십, 수백만 개의 'AI 에이전트(AI Agent)'가 인간을 대신해 독자적으로 업무를 수행할 것이라고 전망했어요. 이미 실리콘밸리 최고 수준의 프로그래머(Programmer)들은 직접 코드를 짜는 대신, AI에게 목표와 평가 기준만 지시한 뒤 퇴근해요.
밤새 AI가 수많은 시뮬레이션(Simulation)을 거쳐 완벽한 결과물을 만들어내기 때문이에요. 이제 전통적인 프로그래머라는 직업은 점차 사라지고, AI 시스템을 총괄하고 지휘하는 '감독관(Director)'의 시대가 오고 있어요. 슈밋이 "대학들은 당장 모든 신입생에게 프롬프트 엔지니어링(Prompt Engineering)부터 가르쳐야 한다"고 일갈한 이유도 여기에 있어요.
하지만 이 거대한 혁명의 발목을 잡는 현실적인 장벽이 있어요. 바로 막대한 에너지와 자본이에요. AI가 진화하기 위해서는 수십 기가와트(GW) 수준의 전력이 필요하며, 이를 뒷받침할 데이터센터(Data Center)와 인프라 구축에는 천문학적인 자본이 소모돼요. 이 지점에서 지정학적 패권 경쟁도 빠질 수 없어요.
미국과 중국의 AI 경쟁은 이미 총성 없는 전쟁이에요. 현재 소프트웨어(Software)와 복잡한 추론 능력에서는 미국이 앞서고 있지만, 이를 현실 세계에 구현할 '로봇 하드웨어(Robot Hardware)'의 대량 생산과 제조업 분야에서는 중국이 최종 승자가 될 가능성이 농후해요. 과거 전기차 시장의 주도권을 값싼 제조 능력을 앞세운 중국에 빼앗겼듯, 휴머노이드 로봇(Humanoid Robot) 산업에서도 같은 실수를 반복해서는 안 된다는 것이 슈밋의 뼈아픈 경고예요.
나아가 기술의 진보가 불러올 사회적 부작용과 윤리적 딜레마(Dilemma)도 중대한 과제라네요. 제한 없이 고도화된 AI는 10대들의 정신 건강에 치명적인 영향을 미칠 수 있으며, 생물학적 무기 제조나 사이버 테러(Cyber Terror) 등에 악용될 위험성도 내포하고 있어요.
'AI 저커버그'!
어느 날 아침, 회사 대표와 1대1 면담 일정이 잡혔어요. 화면 너머로 대표가 등장해 회사의 비전을 설명하고 내 업무에 대한 피드백(Feedback)을 건네요. 표정과 말투, 평소의 제스처(Gesture)까지 우리가 아는 대표의 모습 그대로예요.
하지만 화면 속 인물은 진짜 사람이 아니라, 완벽하게 구현된 'AI 복제 인간'이에요. 공상과학 영화의 한 장면 같지만, 이는 조만간 빅테크(Big Tech) 기업 메타(Meta)의 직원들이 겪게 될 현실이에요.
최근 외신에 따르면, 메타는 마크 저커버그(Mark Zuckerberg) CEO의 인공지능 버전을 개발하는 데 박차를 가하고 있어요. 단순한 텍스트 챗봇(Text Chatbot)을 넘어, 실시간으로 소통이 가능한 극사실적(Photorealistic)인 3D 가상 인간을 만드는 것이 목표예요. 이 'AI 저커버그'는 실제 저커버그의 억양과 습관, 공개 발언은 물론 최근의 경영 전략까지 고스란히 학습하고 있어요. 표면적인 목적은 명확해요.
시공간의 제약을 넘어 전 세계 수많은 직원들이 창업자와 '연결'되어 있다는 느낌을 주겠다는 거예요. 저커버그 본인도 이 프로젝트에 진심이어서 일주일에 5~10시간씩 직접 코딩(Coding)을 하고 기술 검토 회의에 참여할 정도예요.
메타의 이러한 행보는 회사의 명운을 걸고 추진 중인 '개인용 초지능(Personal Superintelligence)' 전략의 핵심 중 하나예요. 메타는 최근 폐쇄형 특수목적 AI 모델인 '뮤즈 스파크(Muse Spark)'를 출시해 주가가 하루 만에 7% 폭등하는 등 시장의 환호를 받았어요.
OpenAI나 구글 같은 경쟁사들을 맹추격하며 수십억 달러를 쏟아부은 결과가 가시화되고 있는 거예요. 만약 AI 저커버그가 성공적으로 안착한다면, 향후 인플루언서(Influencer)나 크리에이터(Creator)들이 팬들과 24시간 교감할 수 있는 'AI 분신'을 만드는 거대한 비즈니스로 확장될 것이 분명해요.
하지만 이 혁신적인 실험 이면에는 서늘한 현실이 자리하고 있어요. 리더와의 '친밀한 소통'을 위해 초지능 AI를 도입한다지만, 정작 메타 직원들은 바로 그 AI 기술로 인해 생존의 위협을 느끼고 있거든요. 현재 메타는 직원들에게 다양한 AI 도구를 활용해 업무를 자동화하라고 강력히 주문하고 있어요.
특히 제품 관리자들을 대상으로 '바이브 코딩(Vibe Coding)' 등을 포함한 AI 기술 역량 평가를 실시하면서, 내부에서는 이것이 대규모 구조조정을 위한 사전 정지 작업이 아니냐는 불안감이 팽배해요.
'AI 저커버그'의 등장은 미래 기업 환경이 직면할 모순을 가장 극적으로 보여주는 사례예요. 회사는 첨단 기술을 동원해 리더와 직원 간의 심리적 거리감을 좁히고 '연결'을 시도하려 하지만, 동시에 직원들은 그 기술로 인해 언제든 자신의 일자리가 대체될 수 있다는 '단절'의 공포를 매일 체감하고 있어요. 진정한 리더십과 유대감은 정교한 3D 렌더링(3D Rendering)에서 비롯되는 것일까요, 아니면 인간 대 인간의 불완전하지만 진실된 교감에서 나오는 것일까요?
자본주의는 스스로 브레이크를 밟을 수 있을까?
2026년 현재, 기업들의 AI 도입과 대규모 해고가 일상화되고 있어요. 인력의 절반을 해고한 IT 기업 블록(Block)이나, 개발자 팀 전체의 업무를 대체하는 코그니션(Cognition)의 '데빈(Devin)' 사례는 더 이상 낯선 풍경이 아니에요.
개별 기업들은 AI가 가져다주는 극단적인 인건비 절감과 효율성에 환호하고 있어요. 하지만 거시경제적 차원에서는 섬뜩한 질문 하나가 남아요. "일자리를 잃은 노동자는 곧 소비력을 상실한 고객인데, 모두가 해고당해 지갑이 닫히면 기업이 만든 제품은 대체 누가 사줄 것인가?"
최근 경제학계를 달구고 있는 논문 「AI 해고의 덫(The AI Layoff Trap)」은 이 질문에 명쾌하고도 비관적인 해답을 제시해요. 결론부터 말하자면, 기업들은 '다 같이 망하는 길'인 줄 뻔히 알면서도 AI 해고의 가속 페달을 밟을 수밖에 없다는 거예요. 이를 설명하는 핵심 개념은 '수요 외부효과(Demand Externality)'예요.
한 기업이 직원을 AI로 대체하면 막대한 비용 절감의 이익을 혼자 독식해요. 반면, 해고된 노동자들의 소득 상실로 발생하는 '시장 전체의 수요 감소'라는 피해는 시장에 참여한 모든 경쟁사와 N분의 1로 나누어지고요.
결국 모든 기업이 이러한 '합리적' 계산에 따라 해고에 나서고, 종국에는 시장 전체의 구매력이 붕괴해요. 이익을 향한 개별 기업의 완벽한 합리성이 시장 전체로는 완벽한 파멸을 부르는 전형적인 '죄수의 딜레마(Prisoner's Dilemma)'예요.
흔히 시장 경쟁이 치열해지면 자정 작용이 일어날 것이라 믿지만, 연구에 따르면 현실은 정반대예요. 파편화된 경쟁 시장일수록 내가 짊어질 수요 감소의 몫이 작아지므로 과잉 자동화(Over-automation)의 유혹은 훨씬 커져요.
게다가 AI의 생산성이 높아질수록 시장 점유율을 뺏기 위한 기업 간의 '붉은 여왕의 군비 경쟁(Red Queen's Arms Race)'은 더욱 격렬해져요. 이 과정에서 수요 붕괴가 임계점을 넘어서면 결국 기업의 이윤마저 줄어들어, 자본가와 노동자 모두가 패배하는 막대한 자중손실(Deadweight Loss)이 발생해요.
그렇다면 이 파멸적 질주를 멈출 대안은 무엇일까요? 기본소득(UBI, Universal Basic Income)이나 자본소득세 증세, 노동자 주식 공유제 등은 근본적 해결책이 되지 못해요. 이러한 정책들은 노동자의 바닥난 통장을 일시적으로 채워주거나 이익을 사후적으로 재분배할 뿐, 'AI로 직원을 대체할 때 얻는 한계 이윤'이라는 기업의 구조적 행동 유인 자체를 바꾸지 못하기 때문이에요.
결국 이 무한 경쟁의 덫을 풀 수 있는 유일한 열쇠는 '피구세(Pigouvian Tax) 성격의 AI 자동화세'라네요. 기업이 사회 전체에 떠넘기는 '수요 파괴'라는 숨겨진 비용을 세금으로 청구해, AI 도입의 체감 비용을 사회적 비용과 일치시켜야 한다는 거예요.
그리고 이렇게 거둔 세수는 해고된 노동자를 더 높은 부가가치를 창출하는 산업으로 이동시키는 재교육에 투자되어야 해요. 노동자가 더 나은 임금으로 시장에 복귀해야만 붕괴된 수요가 복원되기 때문이에요.
기술의 진보를 막자는 러다이트 운동(Luddite Movement)을 하자는 것이 아니에요. 혁신이 인류의 번영이 아닌 파멸로 이어지지 않기 위해서는 경제적 '룰(Rule)'이 필요하다는 뜻이에요.
두려움과 책임 사이에서
이번 칼럼에서 함께 살펴본 이야기들은 표면적으로는 각기 다른 사건처럼 보이지만, 사실 하나의 거대한 질문을 가리키고 있어요. AI는 이제 국가 인프라를 혼자 해킹하고, 도시의 거리에서 화염병을 부르고, 컴퓨팅 제국의 판도를 바꾸고, 스스로 진화하며, 우리의 상사 자리마저 넘보고 있어요. 그리고 그 끝에서 자본주의는 스스로를 잡아먹는 덫에 빠져들고 있고요.
이 모든 이야기의 공통된 결론은 하나예요. 기술이 얼마나 빠르게 달릴 수 있느냐가 아니라, 우리가 그 속도를 어떻게 감당할 것이냐의 문제라는 거예요. 두려움은 정당해요. 하지만 두려움이 화염병이 되어서는 안 되고, 탐욕이 자동화세를 외면하게 해서도 안 돼요.
AI 시대를 살아가는 우리 모두에게 필요한 것은, 결국 기술보다 더 단단한 에코 멤버님들의 인간적 판단력과 책임감이에요. 그것이 가장 오래되고, 가장 어렵고, 가장 값진 경쟁력이에요.

Cinnamomo di Moscata (글쓴이) 소개
게임 기획자입니다. https://www.instagram.com/cinnamomo_di_moscata/
(1) Eyal Sela. (2026). A Single Operator, Two AI Platforms, Nine Government Agencies: The Full Technical Report. Gambit. https://gambit.security/blog-post/a-single-operator-two-ai-platforms-nine-government-agencies-the-full-technical-report
(2) Sam Altman. (2026). -. https://blog.samaltman.com/2279512
(3) Kali Hays. (2026). OpenAI boss Sam Altman's home targeted with Molotov cocktail. BBC. https://www.bbc.com/news/articles/czx91rdxpyeo
(4) Nicholas Bogel-Burroughs, Kalley Huang and Heather Knight. (2026). Molotov Cocktail Is Hurled at Home of OpenAI C.E.O. Sam Altman. New York Times. https://www.nytimes.com/2026/04/10/us/open-ai-sam-altman-molotov-cocktail.html
(5) Madeline Berg, Natalie Musumeci, Katherine Li, and Charles Rollet. (2026). The digital trail of the 20-year-old accused of targeting OpenAI CEO Sam Altman. Business Insider. https://www.businessinsider.com/sam-altman-molotov-attack-suspect-daniel-moreno-gama-houston-2026-4
(6) Jonah Owen Lamb. (2026). Sam Altman's house targeted in second attack; two suspects arrested. The San Francisco Standard. https://sfstandard.com/2026/04/12/sam-altman-s-home-targeted-second-attack/
(7) Shirin Ghaffary. (2026). OpenAI Tells Investors It Has Computing Advantage Over Anthropic. Bloomberg. https://www.bloomberg.com/news/articles/2026-04-09/openai-tells-investors-it-has-computing-advantage-over-anthropic
(8) Rachael Metz. (2026). OpenAI Releases Cyber Model to Limited Group in Race With Mythos. Bloomberg. https://www.bloomberg.com/news/articles/2026-04-14/openai-releases-cyber-model-to-limited-group-in-race-with-mythos
(9) Peter H. Diamandis and Eric Schmidt. (2026). 에릭 슈미트가 로봇 경쟁, 특이점 시점, 그리고 에너지 부족에 대해 이야기합니다 | 241. YouTube. https://www.youtube.com/watch?v=DpwmmXmzvfo
(10) Hannah Murphy. (2026). Meta builds AI version of Mark Zuckerberg to interact with staff. Financial Times. https://www.ft.com/content/02107c23-6c7a-4c19-b8e2-b45f4bb9ce5f
(11) arXiv:2603.20617 [econ.TH]