Meta, TRIBE v2 공개… in-silico neuroscience용 tri-modal foundation model 제시

Original: Meta introduces TRIBE v2, a tri-modal foundation model for in-silico neuroscience View original →

Read in other languages: English日本語
Sciences Mar 31, 2026 By Insights AI 1 min read Source

2026년 3월 26일 AI at Meta는 X에서 TRIBE v2를 소개하며, sight·sound·language에 대한 human brain response를 예측하는 foundation model이라고 설명했다. 함께 공개된 paper pagedemo를 보면, Meta는 이 프로젝트를 단순한 benchmark 결과가 아니라 in-silico neuroscience를 위한 reusable research layer로 포지셔닝하고 있다.

숫자부터 흥미롭다. X post는 TRIBE v2가 500+ hours의 fMRI recordings와 700+ people 데이터를 바탕으로 만들어졌다고 설명한다. 반면 paper abstract는 over 1,000 hours of fMRI across 720 subjects라고 적고 있다. 표현은 다르지만 방향은 일치한다. 기존처럼 실험별·과제별로 모델을 따로 짜는 대신, 더 큰 규모의 multimodal dataset을 이용해 다양한 stimuli, tasks, subjects에 공통으로 작동하는 foundation model을 만들겠다는 것이다.

demo가 설명하는 구조는 세 단계다. 먼저 pretrained audio, video, text embeddings가 stimuli를 표현하고, 그다음 transformer가 modality와 task를 가로지르는 universal representation을 학습한다. 마지막으로 subject layer가 이 표현을 individual fMRI voxels에 매핑한다. Meta는 TRIBE v2가 whole-brain 기준 70,000 voxels를 예측하고, TRIBE v1의 1,000 cortical predictions보다 훨씬 정밀한 그림을 제공한다고 설명한다. 또한 new subjects와 new stimuli에 대한 zero-shot generalization에서 standard methods 대비 2-3x improvement를 보였다고 밝혔다.

이 연구가 중요한 이유는 정확도 수치만이 아니다. paper는 TRIBE v2가 classic visual·neuro-linguistic paradigms를 in silico로 재현할 수 있다고 주장하고, demo는 실제 lab에서 months가 걸릴 수 있는 실험 준비를 seconds 수준의 computation으로 압축할 수 있다고 설명한다. Meta는 이를 통해 neuroscience experiment planning, AI architecture design, neurological disease diagnosis and treatment research까지 가속할 수 있다고 본다.

또 하나 눈에 띄는 점은 공개 범위다. Meta는 tweet thread에서 model weights, code, paper, demo를 함께 공개한다고 밝혔다. 이는 TRIBE v2를 단지 corporate research showcase가 아니라, 외부 연구자가 바로 검증하고 확장할 수 있는 open research asset으로 내놓겠다는 의미다. foundation model이 text나 image generation을 넘어 brain activity prediction과 hypothesis testing의 계산 계층으로 이동하고 있다는 점에서, TRIBE v2는 올해 가장 흥미로운 AI-for-science 사례 중 하나로 볼 만하다.

Share: Long

Related Articles

Sciences sources.twitter 6d ago 1 min read

Anthropic는 2026년 3월 23일 AI가 연구 관행과 scientific discovery를 어떻게 바꾸는지에 초점을 맞춘 Science Blog를 시작한다고 밝혔다. 새 블로그는 feature story, workflow guide, field note를 통해 Anthropic의 AI-for-science 전략을 더 지속적인 프로그램으로 보여 준다.

Sciences sources.twitter 4d ago 1 min read

NVIDIA AI Dev는 2026년 3월 27일 Edison의 PaperQA3가 1억 5천만 건이 넘는 연구 논문과 특허를 추론 대상으로 다루고 LABBench2에서 강한 성능을 냈다고 소개했다. Edison 글에 따르면 이 multimodal 시스템은 이제 figures와 tables를 읽고 수백 개의 시각 자료를 비교한 뒤 답변할 수 있다.

Comments (0)

No comments yet. Be the first to comment!

Leave a Comment

© 2026 Insights. All rights reserved.