नई दिल्ली, फरवरी 13 -- AI कितना खतरनाक हो सकता है, इसका अंदाजा शायद आप इस बात से लगा सकते हैं कि एक AI मॉडल ने इंजीनियर को मर्डर करने की धमकी दे डाली और ब्लैकमेल भी किया। खुद कंपनी ने अपने एआई मॉडल की इस हकरत के बारे में जानकारी दी है। दरअसल, एंथ्रोपिक के सबसे नए AI मॉडल Claude 4.6 पर अपनी लेटेस्ट रिपोर्ट में बताया है कि इसका AI हाथ से निकल सकता है। अपनी सेफ्टी रिपोर्ट में कंपनी ने बताया है कि क्लॉड 4.6 यूजर्स को केमिकल हथियार बनाने और साथ ही क्राइम करने में भी मदद कर सकता है। क्या है पूरा मामला, चलिए डिटेल में बताते हैं सबकुछ...टेस्टिंग के दौरान सामने आया डरावना सच इंडिया टूडे की रिपोर्ट के अनुसार, जिस समय दुनिया क्लॉड 4.6 के बारे में जान रही है, उसी समय क्लॉड 4.5 के बारे में भी नए सिरे से बातचीत शुरू हो गई है, जिसने पिछले साल सिमुलेशन म...
Click here to read full article from source
To read the full article or to get the complete feed from this publication, please
Contact Us.