एंथ्रोपिक ने AI रासायनिक, विस्फोटक खतरों से निपटने के लिए प्रबंधक नियुक्त किया
Loading more articles...
AI सुरक्षा पर जोर: Anthropic ने रासायनिक, विस्फोटक खतरों के लिए प्रबंधक नियुक्त किया.
F
Firstpost•17-03-2026, 11:04
AI सुरक्षा पर जोर: Anthropic ने रासायनिक, विस्फोटक खतरों के लिए प्रबंधक नियुक्त किया.
•अमेरिकी AI फर्म Anthropic ने AI प्रणालियों में रासायनिक हथियारों और उच्च-विस्फोटक जोखिमों से निपटने के लिए एक नीति प्रबंधक नियुक्त किया है.
•यह भूमिका AI द्वारा संवेदनशील जानकारी को संभालने के तरीके को आकार देगी और रासायनिक हथियारों व ऊर्जावान सामग्रियों से संबंधित AI मॉडल क्षमताओं का मूल्यांकन करेगी.
•आवेदकों को रासायनिक हथियारों या विस्फोटक रक्षा में 5+ वर्षों का अनुभव और ऊर्जावान सामग्रियों में गहरी विशेषज्ञता होनी चाहिए.
•OpenAI जैसी अन्य फर्मों ने भी सीमांत AI मॉडल से उत्पन्न होने वाले विनाशकारी जोखिमों को कम करने के लिए समान "जिम्मेदार AI" भूमिकाओं के लिए भर्ती की है.
•विशेषज्ञों ने चेतावनी दी है कि यह दृष्टिकोण अनजाने में AI उपकरणों को हथियारों के बारे में जानकारी दे सकता है, जबकि Anthropic के सह-संस्थापक Dario Amodei ने AI के युद्ध में उपयोग का विरोध किया था. एक BBC रिपोर्ट के अनुसार, Anthropic का Claude अभी भी Palantir द्वारा प्रदान की गई प्रणालियों में एम्बेडेड है और US-Israel Iran युद्ध में US द्वारा तैनात किया जा रहा है.