नई दिल्ली, फरवरी 13 -- AI कितना खतरनाक हो सकता है, इसका अंदाजा शायद आप इस बात से लगा सकते हैं कि एक AI मॉडल ने इंजीनियर को मर्डर करने की धमकी दे डाली और ब्लैकमेल भी किया। खुद कंपनी ने अपने एआई मॉडल की इस हकरत के बारे में जानकारी दी है। दरअसल, एंथ्रोपिक के सबसे नए AI मॉडल Claude 4.6 पर अपनी लेटेस्ट रिपोर्ट में बताया है कि इसका AI हाथ से निकल सकता है। अपनी सेफ्टी रिपोर्ट में कंपनी ने बताया है कि क्लॉड 4.6 यूजर्स को केमिकल हथियार बनाने और साथ ही क्राइम करने में भी मदद कर सकता है। क्या है पूरा मामला, चलिए डिटेल में बताते हैं सबकुछ...टेस्टिंग के दौरान सामने आया डरावना सच इंडिया टूडे की रिपोर्ट के अनुसार, जिस समय दुनिया क्लॉड 4.6 के बारे में जान रही है, उसी समय क्लॉड 4.5 के बारे में भी नए सिरे से बातचीत शुरू हो गई है, जिसने पिछले साल सिमुलेशन म...