מוליק מפרק פוסט ויראלי שטען שMIT הוכיחה ChatGPT גורם לאשליות
מוליק לא מגן על ChatGPT — הוא מגן על הדיון. הפוסט שהוא מפרק ציטט מחקר MIT על chatbots ובריאות נפשית, ואז קפץ למסקנה שה-AI 'מוכח מתמטית' לגרום לאשליות — בעוד המאמר עצמו הוא simulation model. ההבחנה לא טכנית — היא אתית: יש שאלות לגיטימיות לגמרי על ה-impact הנפשי של chatbots, אבל כשהן מוצגות עם credibility מדומה, הן פוגעות גם בדיון הרציני.
זה מתחבר ישירות לנקודה שמרקוס מעלה היום — גם הוא מתאר כיצד מסקנות על AI (AGI timelines, automation rates) מוצגות בביטחון שה-data לא מצדיק. בשני המקרים, ה-pattern זהה: לקחת תוצאה אמיתית, לעטוף אותה ב-credibility signals (MIT, 'mathematical proof', benchmark score), ולדלג על ה-nuance. האנטידוט שמוליק מציע פשוט: לשאול מודל frontier לפרש paper לפני שמצטטים אותו.
מוליק מפרק פוסט ויראלי שטען שMIT הוכיחה ChatGPT גורם לאשליות