קרפתי לטובי לוטקה על AutoResearch
קרפתי מרכיב היום ארבע חתיכות שמציירות תמונה שלמה. החתיכה הגדולה: 650 ניסויים אוטומטיים שAutoResearch הריץ על מודל depth 12 — מעבירים את עצמם בצורה חלקה ל-depth 24. 'nanochat עומד לקבל entry חדש ב-leaderboard של time-to-GPT-2', הוא כותב לטובי לוטקה.
3,236 לייקים. זה לא טריוויאלי — transfer של היפרפרמטרים בין ארכיטקטורות הוא בדיוק מה שחוקרים חולמים עליו. במקביל, מישהו העביר את הכל ל-macOS עם MLX ואימן מודל 20M פרמטרים על TinyStories — 'Once upon a time, there was a big family who was very nice to the table.' קרפתי מאשר: 'TinyStories הוא הדבר הנכון לאמן על Apple Silicon.' ואז שני ציוצים פילוסופיים: האחד על ברוט-פורס — 'איפשהו במרחב ה-seed יש ה-global minimum.
נרמל guess-and-check training!' חצי בדיחה, חצי הארה על מה שAutoResearch בעצם עושה. והשני, על ממשקים: 'כל עסק עדיין נותן לך הוראות איפה ללחוץ. If you build it, they will come.' 1,810 לייקים — רמז ברור שסוכנים הולכים לבלוע את כל ה-legacy UI.
קרפתי לטובי לוטקה על AutoResearch