מוליק
מוליק
איתן מוליק @emollick

פרופסור ב-Wharton, חוקר השפעת AI על עבודה וחינוך. מחבר 'Co-Intelligence'. TIME 100 AI 2024.

'MIT הוכיחה מתמטית' — הפוסט הויראלי שמשקר בשמם של חוקרים אמיתיים

מוליק לא מגן על ChatGPT — הוא מגן על הדיון. הפוסט שהוא מפרק ציטט מחקר MIT על chatbots ובריאות נפשית, ואז קפץ למסקנה שה-AI 'מוכח מתמטית' לגרום לאשליות — בעוד המאמר עצמו הוא simulation model. ההבחנה לא טכנית — היא אתית: יש שאלות לגיטימיות לגמרי על ה-impact הנפשי של chatbots, אבל כשהן מוצגות עם credibility מדומה, הן פוגעות גם בדיון הרציני.

זה מתחבר ישירות לנקודה שמרקוס מעלה היום — גם הוא מתאר כיצד מסקנות על AI (AGI timelines, automation rates) מוצגות בביטחון שה-data לא מצדיק. בשני המקרים, ה-pattern זהה: לקחת תוצאה אמיתית, לעטוף אותה ב-credibility signals (MIT, 'mathematical proof', benchmark score), ולדלג על ה-nuance. האנטידוט שמוליק מציע פשוט: לשאול מודל frontier לפרש paper לפני שמצטטים אותו.

מוליק מפרק פוסט ויראלי שטען שMIT הוכיחה ChatGPT גורם לאשליות

This kind of post is annoying. It manages to conflate real and complex issues about the mental health impacts of chatbots with a bunch of made-up stuff and bad science. The paper is a stylized model, it is not a mathematical proof that ChatGPT is designed to make you delusional.
הפוסט הזה מעצבן. הוא מצליח לערבב בין נושאים אמיתיים ומורכבים על ההשפעות הנפשיות של chatbots לבין שטויות ומדע גרוע. המאמר הוא 'stylized model' — לא הוכחה מתמטית שChatGPT מתוכנן לגרום לאשליות.
לפוסט המקורי ↗
💡
תובנה
האם 'MIT הוכיחה' מספיק כדי שאנשים חכמים יפסיקו לקרוא את ה-abstract?
כל הכתבות ←