नई दिल्ली, फरवरी 13 -- AI कितना खतरनाक हो सकता है, इसका अंदाजा शायद आप इस बात से लगा सकते हैं कि एक AI मॉडल ने इंजीनियर को मर्डर करने की धमकी दे डाली और ब्लैकमेल भी किया। खुद कंपनी ने अपने एआई मॉडल की इस हकरत के बारे में जानकारी दी है। दरअसल, एंथ्रोपिक के सबसे नए AI मॉडल Claude 4.6 पर अपनी लेटेस्ट रिपोर्ट में बताया है कि इसका AI हाथ से निकल सकता है। अपनी सेफ्टी रिपोर्ट में कंपनी ने बताया है कि क्लॉड 4.6 यूजर्स को केमिकल हथियार बनाने और साथ ही क्राइम करने में भी मदद कर सकता है। क्या है पूरा मामला, चलिए डिटेल में बताते हैं सबकुछ...टेस्टिंग के दौरान सामने आया डरावना सच इंडिया टूडे की रिपोर्ट के अनुसार, जिस समय दुनिया क्लॉड 4.6 के बारे में जान रही है, उसी समय क्लॉड 4.5 के बारे में भी नए सिरे से बातचीत शुरू हो गई है, जिसने पिछले साल सिमुलेशन म...
Click here to read full article from source
इस लेख के रीप्रिंट को खरीदने या इस प्रकाशन का पूरा फ़ीड प्राप्त करने के लिए, कृपया
हमे संपर्क करें.