Anthropic
Anthropic
Anthropic @AnthropicAI

חברת AI ממוקדת בטיחות, מפתחת את Claude. נוסדה ב-2021 ע"י לשעבר עובדי OpenAI.

משתמשים מנוסים סומכים פחות על AI — ודווקא מקבלים תוצאות טובות יותר

Anthropic מוציאה ממצא מפתיע מהאינדקס הכלכלי שלה: ככל שאנשים צוברים ניסיון עם קלוד, הם דווקא מפחיתים את האוטונומיה שהם נותנים לו — ומקבלים תוצאות טובות יותר. זה הפוך מהאינטואיציה: הציפייה היא שמשתמשים מתקדמים ירצו יותר אוטומציה, אבל בפועל הם לומדים לעבוד בשיתוף פעולה הדוק יותר, על משימות יותר מורכבות. במקביל, הנתון שה-10 משימות המובילות ירדו מ-24% ל-19% מהשיחות מראה התבגרות — אנשים מפסיקים להשתמש ב-AI רק לקוד ותרגום ומתחילים לגוון.

בבלוג ההנדסי, Anthropic מפרסמת איך הם משתמשים ב-multi-agent harness לדחוף את קלוד קדימה בפרונטאנד ו-SWE אוטונומי.

Anthropic מפרסמת ממצאי האינדקס הכלכלי — משתמשים מנוסים נותנים פחות אוטונומיה

New from the Anthropic Economic Index: how people's use of Claude changes with experience. Longer-term users are more likely to iterate carefully with Claude, and less likely to hand it full autonomy. They attempt higher-value tasks, and receive more successful responses.
חדש מהאינדקס הכלכלי של Anthropic: איך השימוש בקלוד משתנה עם הניסיון. משתמשים ותיקים נוטים יותר לעבוד עם קלוד בצורה איטרטיבית וזהירה, ופחות לתת לו אוטונומיה מלאה. הם מנסים משימות בעלות ערך גבוה יותר — ומקבלים תשובות מוצלחות יותר.
לפוסט המקורי ↗
💡
תובנה
הפרדוקס של AI: פחות אוטונומיה = יותר ערך. המשתמשים הטובים ביותר הם אלה שלא סומכים עיוור.
כל הכתבות ←