AI रासायनिक, स्फोटक धोके हाताळण्यासाठी अँथ्रॉपिकने व्यवस्थापक नेमला
Loading more articles...
AI सुरक्षिततेवर भर: Anthropic ने रासायनिक, स्फोटक धोक्यांसाठी व्यवस्थापक नेमला
F
Firstpost•17-03-2026, 11:04
AI सुरक्षिततेवर भर: Anthropic ने रासायनिक, स्फोटक धोक्यांसाठी व्यवस्थापक नेमला
•अमेरिकेतील AI फर्म Anthropic ने AI प्रणालींमधील रासायनिक शस्त्रे आणि उच्च-स्फोटक धोके हाताळण्यासाठी पॉलिसी मॅनेजरची नियुक्ती केली आहे.
•ही भूमिका AI संवेदनशील माहिती कशी हाताळते हे ठरवेल आणि रासायनिक शस्त्रे व ऊर्जावान सामग्रीशी संबंधित AI मॉडेलच्या क्षमतांचे मूल्यांकन करेल.
•अर्जदारांना रासायनिक शस्त्रे किंवा स्फोटक संरक्षणात 5+ वर्षांचा अनुभव आणि ऊर्जावान सामग्रीमध्ये सखोल कौशल्य असणे आवश्यक आहे.
•OpenAI सारख्या इतर कंपन्यांनीही सीमांत AI मॉडेल्समुळे उद्भवणारे विनाशकारी धोके कमी करण्यासाठी "जबाबदार AI" भूमिकांसाठी भरती केली आहे.
•विशेषज्ञांनी चेतावणी दिली आहे की हा दृष्टिकोन अनवधानाने AI साधनांना शस्त्रांबद्दल माहिती देऊ शकतो, जरी Anthropic चे सह-संस्थापक Dario Amodei यांनी AI च्या युद्धात वापरास विरोध केला होता. एका BBC अहवालानुसार, Anthropic चे Claude अजूनही Palantir द्वारे प्रदान केलेल्या प्रणालींमध्ये समाविष्ट आहे आणि US-Israel Iran युद्धात US द्वारे तैनात केले जात आहे.