אלטמן על אובדן שליטה ב-AGI
This is a more general point: if we have a loss of control with AGI, we are probably in a very bad place.
(I have heard some colleagues I really respect say that as long as it loves humanity, even if we 'lose control' we are probably ok. Maybe they are right, but I personally
זו נקודה כללית יותר: אם נאבד שליטה ב-AGI, אנחנו כנראה במקום מאוד רע.
(שמעתי עמיתים שאני באמת מכבד אומרים שכל עוד זה אוהב את האנושות, גם אם 'נאבד שליטה' — כנראה בסדר. אולי הם צודקים, אבל אני אישית
לפוסט המקורי ↗