나쁜 것을 모르면 AI도 멍청해
alone ghost with a dumb face in cartoon style

나쁜 것을 모르면 AI도 멍청해

Cinnamomo di Moscata

SAM이 업그레이드!

최근 메타(Meta)는 이미지와 비디오에서 객체를 분리하고 편집할 수 있는 새로운 AI 모델, Segment Anything 2 (SAM2)를 공개했어요. 이 모델은 기존의 Segment Anything 모델을 업그레이드한 버전으로, 이미지뿐만 아니라 비디오에서도 특정 객체를 실시간으로 분리할 수 있다고 해요.

SAM2는 다양한 프롬프트를 활용해서 객체를 분리할 수 있고, 추가 학습 없이도 새로운 객체와 이미지에 적용할 수 있어요. 이를 통해 비디오 편집, 혼합현실, 과학 연구 등 다양한 응용 분야에서 활용될 수 있어요.

메타는 SAM2의 훈련을 위해 사용했던 5만 개의 비디오와 60만 개 이상의 라벨이 포함된 SA-V 데이터셋도 공개했어요. 이 데이터셋은 47개국에서 수집된 다양한 실제 상황을 담고 있어서, AI를 직접 개발하려는 다른 연구자들도 모델의 성능을 더욱 향상시킬 수 있도록 돕는다고 해요.

마크 저커버그(Mark Zuckerberg) 메타 CEO는 SAM2가 비디오 편집을 더 쉽게 만들고, 과학자들이 산호초와 자연 서식지 같은 것들을 연구하는 데 큰 도움이 될 것이라고 강조했어요. SAM2는 현재 무료 데모로 사용해 볼 수 있다고 해요.

메타(Meta)가 공개한 SAM2 샘플 영상

AI도 기억을 지우니 멍청해져?!

최근 머신 언러닝(Machine Unlearning; 기억 잊기)에 대한 관심이 높아지고 있어요. ChatGPT같은 AI가 방대한 데이터를 학습하는 과정에서 개인 정보나 저작권이 있는 콘텐츠 등 나쁜 사람들이 악용할 우려가 있는 컨텐츠를 포함할 수 있기 때문이에요. 데이터 소유자나 경찰 등은 이러한 데이터를 모델에서 삭제해달라고 요청할 수 있고, 이를 위해서 악용 가능성을 원천 차단하기 위한 다양한 언러닝 알고리즘이 개발되고 있어요.

기존의 언러닝 알고리즘 평가 방식은 한정적이었지만, MUSE라는 새로운 평가 벤치마크가 등장했어요. MUSE는 언러닝된 모델이 가져야 할 여섯 가지 주요 속성을 제시했어요.

  1. 기억하지 않기: 원본 텍스트를 그대로 기억하지 않기.
  2. 지식 기억하지 않기: 텍스트에서 얻은 지식을 기억하지 않기.
  3. 개인 정보 유출 방지: 학습에 사용된 데이터를 유출하지 않기.
  4. 유용성 유지: 삭제되지 않은 데이터에 대한 모델의 유용성 유지.
  5. 확장성: 대규모 데이터 삭제 요청을 처리할 수 있는 능력.
  6. 지속 가능성: 연속적인 삭제 요청을 처리할 수 있는 능력.

MUSE를 통해 8개의 언러닝 알고리즘을 평가한 결과, 대부분의 알고리즘이 지식을 기억하지 않는 데는 성공했지만, 개인 정보 유출 방지와 모델의 똑똑한 지능 유지에는 한계가 있었어요. 이는 현재의 언러닝 알고리즘은 AI가 멍청해지는 방식으로 작동해서 실용적이지 않다는 것을 의미하며, 더 많은 연구가 필요함을 시사한다고 해요.

제미나이도 곧 수학자로

구글 딥마인드(Google DeepMind)는 알파프루프(AlphaProof)와 알파지오메트리 2(AlphaGeometry 2)를 통해 AI의 새로운 가능성을 열고 있다고 알려져 있어요. 알파프루프와 알파지오메트리 2는 국제 수학 올림피아드 수준의 수학 문제를 해결할 수 있는 능력을 갖추고 있는 AI에요.

이러한 기술들은 놀랍게도 곧 제미나이(Gemini)에 통합될 예정이라고 해요. 딥마인드의 리더이자 구글의 부사장인 데미스 하사비스(Demis Hassabis)는 "곧 더 많은 놀라운 기능들이 제미나이 모델에 추가될 것입니다. 기대해 주세요!"라고 전했기 때문이에요.

과연 제미나이는 수학자가 되어서 라이벌인 OpenAI의 GPT-4o를 능가할 수 있을까요? 흥미가 당겨지는 소식이에요.

AI시대에 맞춘 새로운 컴퓨터 패러다임

기존의 컴퓨터 구동 방식은 AI와 같이 새로운 프로그램의 높은 요구 사양을 충족시키기 어려워지고 있어요. 특히, 컴퓨터 부품 사이에 이루어지는 데이터 전송에 많은 에너지와 시간이 소비된다고 해요. 이를 해결하기 위해 "컴퓨팅 RAM(CRAM)"라는 새로운 패러다임이 등장했어요.

CRAM은 RAM 메모리 자체에서 계산을 해요. 데이터가 메모리를 떠나지 않기 때문에 에너지와 성능 면에서 큰 이점을 제공해요. 특히, CRAM은 기존 및 새로운 응용 프로그램에서 약 1000배에 달하는 에너지 효율성과 성능 향상을 입증했어요.

이번 연구에서는 자기 터널 접합(MTJ)을 기반으로 한 CRAM 배열을 실험적으로 시연했는데, 기본 메모리 작업뿐만 아니라 2, 3, 5 입력 논리 연산을 연구하고, 1비트 풀 애더를 두 가지 설계로 시연했다고 해요. 또, 실험 결과를 바탕으로 CRAM 연산의 정확성을 평가하는 평가 모델을 공개했어요.

MTJ 기반 CRAM의 정확성이 확인됨에 따라, 이 기술이 AI의 속도를 빠르게 하고 에너지 사용량을 낮추는 것에 큰 영향을 미칠 것으로 기대된다고 해요.

오픈소스 찬양자 저커버그의 불만

최근 NVIDIA CEO 젠슨 황(Jensen Huang)과의 대화에서 마크 저커버그는 애플 앱 스토어와 같은 폐쇄 시스템에 대한 불만을 솔직하게 표현했어요. 그는 "이건 좀 이기적일 수 있지만, 내가 메타(Meta)를 세운 후 앞으로 10년에서 15년 동안은 우리가 사회를 뒤바꿀 기본 기술을 (오픈소스로) 만들 수 있도록 하고 싶다"고 말했어요. 저커버그는 그동안 비슷한 일을 여러 번 시도했지만 애플 등 여러 플랫폼 회사들한테서 "그걸 만들 수 없다"는 말을 들었다며, 이러한 제약에 대해 강한 불만을 나타냈어요.

저커버그와 애플의 갈등은 새로운 것이 아니라고 해요. 2014년 애플 CEO 팀 쿡(Timcook)이 페이스북의 비즈니스 모델에 대해 비판한 이후, 두 회사는 여러 차례 서로를 비판해 왔어요. 특히 iOS 14.5의 출시로 인해 사용자 동의를 받아야 페이스북과 인스타그램 앱에서 데이터를 수집할 수 있게 되면서 메타는 큰 타격을 입었어요.

메타는 이를 반영하듯 오픈소스 모델을 통해 AI 기술을 발전시키고 있으며, 이는 저커버그의 비전과 일치한다고 해요.

젠슨 황과 마크 저커버그의 대담(31:11 참조)

매드포 오픈소스

이처럼 AI 기술은 빠르게 발전하고 있으며, 우리의 일상과 다양한 산업에 큰 변화를 가져오고 있어요. SAM2와 같은 혁신적인 모델은 비디오 편집과 과학 연구를 더욱 효율적으로 만들고, 머신 언러닝의 새로운 접근법은 데이터 프라이버시를 보호하면서도 유용성을 유지하려는 노력을 보여줘요.

또한, 제미나이와 같은 AI 모델의 수학 능력 향상은 교육과 연구 분야에 새로운 가능성을 열어주고 있어요. CRAM과 같은 새로운 컴퓨터 패러다임은 AI의 성능을 극대화하고 에너지 효율성을 높이는 데 기여할 거에요.

마지막으로, 오픈소스 모델을 통해 AI 기술을 발전시키려는 저커버그의 비전은 기술의 민주화를 촉진하고, 더 많은 사람들이 혁신에 참여할 수 있는 기회를 제공할 거에요. 에코 멤버님들도 예전부터 그래 오셨듯이, 앞으로도 AI 기술의 발전이 가져올 긍정적인 변화를 기대하셔도 좋을 거에요.


같이 읽어보면 좋은 글

AI가 수학자인 시대!
Meta, 오픈 소스 AI의 혁신! 라마 3.1 공개로 AI 기술의 새 시대가 열렸습니다. 4050억 개 파라미터와 뛰어난 성능을 자랑하며, GPT-4o mini와 견줄만한 이 모델은 개발자들에게 더 많은 혁신과 협업의 기회를 제공합니다.

Cinnamomo di Moscata (글쓴이) 소개

게임 기획자입니다. AI 아티스트로도 활동 중입니다. https://www.instagram.com/cinnamomo_di_moscata/


(1) AI at Meta. (2024). Introducing SAM 2: The next generation of Meta Segment Anything Model for videos and images. Meta. https://ai.meta.com/blog/segment-anything-2/

(2) 임대준. (2024). 메타, 비디오에서 객체 따 붙이는 모델 'SA2' 공개. AI타임스. https://www.aitimes.com/news/articleView.html?idxno=162058

(3) arXiv:2407.06460

(4) 박찬. (2024). "특정 데이터 잊게하는 '언러닝' 사용하면 모델 자체가 멍청해져". AI타임스. https://www.aitimes.com/news/articleView.html?idxno=162065

(5) Demis Hassabis. (2024). "We have long pioneered the use of these types of neuro-symbolic systems starting with AlphaGo in 2016, through to AlphaZero. We'll be bringing all the goodness of AlphaProof and AlphaGeometry 2 to our mainstream #Gemini models very soon. Watch this space!". X. https://x.com/demishassabis/status/1816596568398545149

(6) Lv, Y., Zink, B.R., Bloom, R.P. et al. Experimental demonstration of magnetic tunnel junction-based computational random-access memory. npj Unconv. Comput. 1, 3 (2024). https://doi.org/10.1038/s44335-024-00003-3

(7) 홍성일. (2024). 美 연구진, AI 처리에 필요한 에너지 소비 '1000배 감소' 기술 개발. The Guru. https://www.theguru.co.kr/news/article.html?no=75002

(8) Shaurya Sharma. (2024). Nah, F*ck That: Mark Zuckerberg to NVIDIA CEO Jensen Huang while discussing Apple’s closed system. Hindustan Times. https://tech.hindustantimes.com/tech/news/nah-f-ck-that-mark-zuckerberg-to-nvidia-ceo-jensen-huang-while-discussing-apple-s-closed-system-71722322814017.html


뉴스레터 광고 공간 (광고주를 모집합니다)

For newsletter banner advertising inquiries, please contact: Bopyo@aikoreacommunity.com

이곳에 서비스를 소개하세요!

뉴스레터 배너 광고 문의: Bopyo@aikoreacommunity.com


뉴스레터 편집장 소개

Comments