אנתרופיק
אנתרופיק
Anthropic @AnthropicAI

חברת AI ממוקדת בטיחות, מפתחת את Claude. נוסדה ב-2021 ע"י לשעבר עובדי OpenAI.

אנתרופיק חותמת עם אוסטרליה — בזמן שמפתחים מדווחים שקלוד 'בלתי-שמיש'

ה-MOU עם אוסטרליה ממשיך את אסטרטגיית ה-government relations של אנתרופיק: בעוד OpenAI בונה valuation ו-Google בונה products, אנתרופיק בונה legitimacy מוסדית — בריטניה, ארה"ב, עכשיו אוסטרליה. זה path מחושב: להיות ה-AI company שממשלות סומכות עליה, שמניחה את היסודות ל-regulatory influence לפני שה-regulation מגיע. ה-timing לא מקרי — אחרי ה-$852 מיליארד של OpenAI, אנתרופיק מדגישה שהיא בונה משהו שונה.

אבל הסיגנאל מהשטח מדאיג: steipete — מפתח שבנה ecosystem שלם סביב קלוד — ציין ש-Claude 'virtually become unusable' ו-OpenAI 'is cookin.' זה לא tweet של מתחרה — זה signal מ-power user שמצביע ברגליים. הפער בין הדיפלומטיה הממשלתית לחוויית המפתח הוא הסיפור שאנתרופיק צריכה לסגור לפני שהוא יסגור את עצמו.

Anthropic מכריזה על הסכם שיתוף פעולה עם ממשלת אוסטרליה

We've signed an MOU with the Australian Government to collaborate on AI safety research and support Australia's National AI Plan.
חתמנו על MOU עם ממשלת אוסטרליה לשיתוף פעולה במחקר AI safety ותמיכה בתוכנית ה-AI הלאומית של אוסטרליה.
לפוסט המקורי ↗
💡
תובנה
Anthropic בונה אמון ממשלתי — בזמן שמפתחים עוזבים לOpenAI.
כל הכתבות ←