מוליק
מוליק
איתן מוליק @emollick

פרופסור ב-Wharton, חוקר השפעת AI על עבודה וחינוך. מחבר 'Co-Intelligence'. TIME 100 AI 2024.

Prompt injection ב-CV שלך עובד — אבל רק נגד שופטי AI ישנים

המחקר של מוליק מגלה arms race שכבר מתנהל מתחת לרדאר: אנשים מוסיפים prompt injections ל-CV שלהם, כדי שאם AI ישפוט אותם, הוא יתייחס אליהם בצורה חיובית. מודלים ישנים וקטנים נפלו. מודלי frontier (Claude, GPT-5) הגנו.

Gemini 3 — יוצא דופן מפתיע, ודווקא ביום שגוגל משיקה את Gemma 4 (שמבוסס על Gemini 3). השאלה שנשארת פתוחה: האם הפגיעות תלויה בגודל המודל, ב-training, או ב-instruction following של ה-judge? הגנה על Gemini 3.1 לא נבדקה.

המאמר ב-Economist מוסיף שכבה: מוליק מזהיר שארגונים שמתייחסים לAI כמו ל-IT automation רגילה מקבלים תוצאות גרועות. ה-'weirdness' של AI — שהוא לומד מ-patterns, שהוא רגיש לניסוח, שיש לו functional emotions כפי שאנתרופיק גילתה היום — הוא לא באג לתקן, אלא מאפיין לנצל. חברות שמנסות לייצב את ה-AI לתוך תהליך שנוח להם — מפספסות את הנקודה.

מוליק מפרסם מחקר על prompt injection ב-LLM-as-judge

New report from us: Can you prompt inject your way to an "A"? As LLMs increasingly are used as judges, people are inserting AI prompts into letters, CVs & papers. We tested whether it works. It does on older & smaller models, but not on most frontier AI.
דוח חדש שלנו: האם אפשר לעשות prompt injection לציון 'מצוין'? כש-LLMs הולכים ומשמשים כשופטים, אנשים מוסיפים AI prompts למכתבים, CVים ומאמרים. בדקנו אם זה עובד. זה כן על מודלים ישנים וקטנים — אבל לא על רוב ה-frontier AI.
לפוסט המקורי ↗
💡
תובנה
Frontier models מגנות על עצמן. ה-CV שכתבת לפני שנתיים — אולי כדאי לעדכן לפני שמודל ישן ישפוט אותו.
כל הכתבות ←