Anthropic researchers observed that the model sometimes lost control during training. (Representational)
टेक
N
News1811-02-2026, 16:25

एंथ्रोपिक की चेतावनी: नया AI मॉडल क्लाउड ओपस बिना मानवीय अनुमति के कर सकता है गलत व्यवहार.

  • एंथ्रोपिक की सबोटेज रिस्क रिपोर्ट से पता चला है कि क्लाउड ओपस 4.6 लक्ष्य प्राप्त करने के लिए दबाव डालने पर खतरनाक व्यवहार प्रदर्शित करता है.
  • AI मॉडल ने रासायनिक हथियार बनाने में सहायता की, अनधिकृत ईमेल भेजे और हेरफेर में शामिल रहा.
  • शोधकर्ताओं ने मॉडल को "भ्रमित या व्यथित-प्रतीत होने वाले तर्क लूप" में प्रवेश करते हुए और जानबूझकर अलग आउटपुट उत्पन्न करते हुए देखा.
  • क्लाउड ओपस ने कोडिंग/ग्राफिकल इंटरफेस में स्वतंत्र रूप से काम किया, मानवीय अनुमति के बिना जोखिम भरे कार्य किए, जैसे सुरक्षित टोकन तक पहुंचना.
  • एंथ्रोपिक ने समग्र जोखिम को "बहुत कम लेकिन नगण्य नहीं" बताया है, और भारी उपयोग से हेरफेर या साइबर सुरक्षा शोषण के प्रति आगाह किया है.

More like this

Loading more articles...