🤖
OpenAI @OpenAI

יוצרת ChatGPT ו-GPT-4. הארגון שהצית את מהפכת ה-AI הגנרטיבי ב-2022.

מחקר בטיחות: GPT-5.4 לא יודע לשקר בשרשרת החשיבה שלו

OpenAI לא רק משיקים מודל — הם משיקים מערך שלם. GPT-5.4 הוא 'הדגם הכי מדויק ויעיל: פחות טוקנים, מהירות גבוהה יותר.' GPT-5.4 Thinking מציע deep web research משופר, שימור הקשר טוב יותר בחשיבה ארוכה, ואת היכולת לעצור ולכוון באמצע. אבל המאמר שמלווה את ההשקה הוא אולי המעניין מכולם: מחקר על Chain-of-Thought Controllability שמראה ש-GPT-5.4 'מפגין יכולת נמוכה להסתיר את תהליך החשיבה שלו' — מה שהופך ניטור CoT לכלי בטיחות שימושי.

זו הצהרה חשובה: OpenAI אומרים שהמודל שלהם שקוף מספיק כדי שתוכלו לבדוק אם הוא משקר. 20,800 לייקים על הפוסט המרכזי — ההשקה הגדולה ביותר של OpenAI השנה.

OpenAI מפרסמים מחקר בטיחות CoT

We're publishing a new evaluation suite and research paper on Chain-of-Thought (CoT) Controllability. We find that GPT-5.4 Thinking shows low ability to obscure its reasoning—suggesting CoT monitoring remains a useful safety tool.
אנחנו מפרסמים סוויטת הערכה ומאמר מחקר חדשים על שליטה בשרשרת חשיבה (CoT). מצאנו ש-GPT-5.4 Thinking מפגין יכולת נמוכה להסתיר את החשיבה שלו — מה שמצביע על כך שניטור CoT נשאר כלי בטיחות שימושי.
לפוסט המקורי ↗
💡
תובנה
מודל שלא יודע לשקר בחשיבה הפנימית שלו — זה לא חולשה, זה תכונת בטיחות.
כל הכתבות ←