4050억 개의 매개변수를 가진 LLM 오픈 소스 llama 3.1을 메타가 공개했습니다. 이번에 공개한 llama 3.1은 오픈AI의 GPT-4o와 앤트록픽의 Claude 3.5 Sonnet과 비슷한 성능을 자랑하고 있습니다. llama 3.1 405B의 벤치마크 결과만 봐도 얼마나 대단한 모델인지 확인이 가능합니다. MMLU(지식)부분도 GPT-4o, Claude 3.5 Sonnet과 큰차이가 나지
AI모델의 성능을 높이기 위해 많은 연구가 진행되고 있습니다. 현재 대다수의 생성형 AI는 Transformer 아키텍처를 활용해 개발되었지만, 데이터의 크기가 커질수록 추론 속도가 느려지고, 메모리와 전력 소모가 많아지는 단점이 있습니다. 이에 대한 대안으로 스탠포드대학교, UC샌디에고, UC버클리, 메타 연구진들이 새로운 아키텍처인 'TTT(Test Time Training)'를 개발했습니다. 기존 Transformer의 단점을 보완하면서,
구글 검색을 포함해 LoRA에 대해 검색을 하면 이미지 생성 AI, Stable Diffusion을 보조하는 역할에 대한 설명 위주로 나옵니다. 실제 LoRA는 AI모델의 성능을 유지하면서도 필요한 부분만 선택적으로 학습해 리소스를 절약하고, 다양한 작업에 빠르게 적용할 수 있도록 도와주는 기술입니다. LoRA란 무엇인가? LoRA는 대형언어모델(LLM)과 같은 복잡한 AI시스템을 효율적으로 조정할 수 있게
22년 말부터 현재까지 AI의 인기는 식을 줄 모르고 있습니다. 하지만 인기가 있는 만큼 더 나은, 더 좋은 성능의 AI를 개발하면서 GPU뿐만 아니라 전력 부족 문제가 심화되고 있습니다. AI가 발전할 수록 방대한 면적의 시설과 막대한 전력량이 필요하기 때문입니다. 이런 상황에서 빅테크 기업들이 공약했던 '넷 제로(Net-Zero)'가 주목받고 있습니다.
OpenAI가 챗GPT의 코드 출력에서 오류를 식별하기 위해 GPT-4 모델을 기반으로 훈련한 CriticGPT를 공개했습니다. CriticGPT는 GPT-4 모델이 작성한 응답을 검토하고, 사람을 대신해서 AI의 오류를 찾아준다고 합니다. 즉, AI가 AI를 보조해 서로 피드백을 주면서 발전할 수 있게 되었습니다. CriticGPT도 챗GPT와 비슷하게 RLHF로 훈련되었는데요. 앞서 설명한 것처럼 CriticGPT는 실수(오류)가 포함된 입력(
구글이 새로운 생성 모델 Generating audio for video를 공개했습니다. 이 모델은 업로드된 비디오 영상에 알맞은 사운드트랙을 생성해 줍니다. 현재 영상 생성 모델의 발전 속도에 비해 무음 영상만 출력하고 있어 구글 딥마인드가 나서서 만들었다고 합니다. 먼저 구글 딥마인드가 공개한 영상을 함께 확인하시죠. 영상과 함께 입력한 프롬프트로 생성된 사운드입니다. 영상 길이에 따라
안녕하세요. 부루퉁입니다. 급성 요추 염좌와 밀린 일정으로 인해 이제서야 에코 회원 여러분을 다시 만나 뵙게 되었습니다. 걱정 끼쳐드려 죄송합니다. 그동안 뉴스레터를 전달하지 못한 만큼 양질의 소식으로 만회하도록 하겠습니다. 오늘은 제 블로그에 2편으로 나눠 소개했던 글을 집중 요약해서 여러분과 함께 자연스러운 애니메이션 영상을 만들어 보도록 하겠습니다. 2가지 생성형 모델 중 비상업용
Anthropic이 LLM의 내부 작동 방식 해석에 대한 흥미로운 논문을 발표했습니다. 기존의 AI는 입력과 출력만 확인되는 블랙박스 방식으로 작동하기 때문에 특정한 응답이 왜, 어떻게 나오는지 이해하기 어렵습니다. 그래서 모델이 해롭거나, 편향되거나, 거짓된 응답을 하는지 하지 않는지 신뢰하기 어렵습니다. 하지만 엔트로픽은 Claude Sonnet 모델의 내부에서 수백만 개의 개념이 어떻게 표현되는지 확인하는 데
5월 14일 구글 I/O 2024에서 최신 AI 기술과 개발자 기회를 강조하는 다양한 발표가 진행되었습니다. 특히 제미나이 1.5와 Astra 프로젝트 시연을 통해 실시간 상호작용 기능과 안드로이드 업데이트를 중점적으로 소개했습니다. 제미나이 1.5: 고급 AI 텍스트 생성 및 AI Overvews 이번 행사에서 가장 주목받은 발표 중 하나는 제미나이 1.5의
5월 14일 오전 2시(한국 시간) 오픈AI가 봄 업데이트를 발표했습니다. 이번 업데이트는 UI를 단순화하고 GPTs스토어와 앱을 개선했다는 내용과 함께 새로운 모델 GPT-4o(GPT-4 omni)와 향상된 음성모드를 선보였습니다. 이번에 공개한 GPT-4o는 인간과 컴퓨터의 자연스러운 상호작용을 목표한 모델로, 텍스트, 오디오, 이미지 등의 모든 조합을 입력으로 받고, 출력 생산한다고 합니다. GPT-4o는 평균
24년 4월 말에 출시된 im a good gpt2 chatbot과 also a good gpt2 chatbot이 최근 성능이 좋다는 평가가 퍼지면서 이슈가 되었습니다. 웹사이트 LMSYS에 갑자기 등장한 GPT2 chatbot. 국내 커뮤니티와 해외 커뮤니티 모두 GPT-4.5 모델이 아닌지, GPT-5 공개전 리허설 테스트인지 의심하고 있는 상황입니다. 현재 오픈AI는 GPT2 모델에 대해 공식적인 입장을
2024년 5월 1일부터 3일까지 삼성동 코엑스에서 열린 AI 엑스포 2024는 올해로 7회를 맞이했습니다. 각종 생성형 AI 모델이 등장한지 1년이 조금 지난 현재, 이번 AI 행사는 세계 5대 인공지능 전시회로 많은 인파와 관심으로 위상을 드높였습니다. 전시회에 참여한 기업들은 챗GPT, 라마, 솔라 등 오픈소스 LLM 모델을 활용해 AI비서, AI상담, AI 안전 시스템,