Meta AI
Meta AI
AI at Meta @AIatMeta

זרוע ה-AI של Meta. מפתחת Llama — הדגמים הפתוחים המובילים בעולם.

TRIBE v2 חוזה איך המוח האנושי יגיב לכל תמונה או צליל

Meta משחררת מודל שחוזה איך המוח האנושי יגיב לכל תמונה או צליל — וזה עובד גם על אנשים שהמודל מעולם לא נחשף אליהם. TRIBE v2 אומן על 500+ שעות של הקלטות fMRI מלמעלה מ-700 אנשים, ומשפר פי 2-3 על כל שיטה קודמת. הם משחררים הכל: מודל, קוד, מאמר ודמו.

מעבר למחקר הטהור, היישומים פוטנציאליים — ממשקי מוח-מחשב, אבחון נוירולוגי, הנגשה — הם עצומים. אבל יש גם צד שני: מודל שחוזה תגובות מוחיות הוא כלי בעל עוצמה שדורש חשיבה עמוקה על פרטיות ואתיקה, נושא שגם GoogleDeepMind העלתה היום במחקר שלה על מניפולציה באמצעות AI.

Meta מציגה TRIBE v2

Today we're introducing TRIBE v2 (Trimodal Brain Encoder), a foundation model trained to predict how the human brain responds to almost any sight or sound. Building on our Algonauts 2025 award-winning architecture, TRIBE v2 draws on 500+ hours of fMRI recordings from 700+ people
היום אנחנו מציגים את TRIBE v2 — מודל יסוד שאומן לחזות איך המוח האנושי מגיב לכמעט כל מראה או צליל. בהמשך לארכיטקטורה שזכתה בפרס Algonauts 2025, TRIBE v2 מבוסס על 500+ שעות של הקלטות fMRI מלמעלה מ-700 אנשים.
לפוסט המקורי ↗
💡
תובנה
מודל שחוזה את תגובת המוח שלך לפני שאתה מודע לה — השאלה היא לא אם זה עובד, אלא מי מחליט למי מותר להשתמש בזה.
כל הכתבות ←