सीएनएन सेंट्रल न्यूज़ एंड नेटवर्क – आईटीडीसी इंडिया ईप्रेस / आईटीडीसी न्यूज़ भोपाल : आर्टिफिशियल इंटेलिजेंस (AI) को भले ही तकनीकी भविष्य का आधार माना जा रहा हो, लेकिन इसी तकनीक को लेकर अब वैज्ञानिकों ने चेतावनी दी है। गूगल, ओपनएआई, मेटा और डीपमाइंड जैसी दिग्गज कंपनियों से जुड़े विशेषज्ञों का कहना है कि AI मॉडल इतने जटिल हो चुके हैं कि उन्हें समझना अब इंसानों के लिए लगभग असंभव होता जा रहा है।
ब्लैक बॉक्स बनते जा रहे हैं AI सिस्टम
वैज्ञानिकों ने कहा है कि आधुनिक AI सिस्टम एक ब्लैक बॉक्स की तरह काम कर रहे हैं — यानी हम जानते हैं कि ये काम कर रहे हैं, लेकिन कैसे काम कर रहे हैं, यह समझ पाना बेहद मुश्किल होता जा रहा है। AI के “थिंकिंग प्रोसेस” को ट्रैक करना और विश्लेषण करना कठिन हो गया है।
“AI की सोच इंसानों जैसी नहीं, लेकिन इसकी जटिलता अब इंसानी समझ से बाहर जा रही है,” एक वरिष्ठ शोधकर्ता ने कहा।
आत्मनिर्भरता बढ़ रही है, पारदर्शिता घट रही है
वर्तमान में विकसित हो रहे मॉडल न केवल बड़े और तेज़ हैं, बल्कि स्वायत्त (autonomous) भी होते जा रहे हैं। यह स्थिति तब और गंभीर हो जाती है जब पारदर्शिता और नियंत्रण की कमी हो। वैज्ञानिकों का मानना है कि ऐसे सिस्टम पर निगरानी और जवाबदेही जरूरी है, वरना जोखिम बढ़ सकता है।
क्या कहती हैं टेक कंपनियां?
हालांकि टेक कंपनियां AI की संभावनाओं की बात कर रही हैं, लेकिन अब उनके अपने वैज्ञानिक भी इसके असमर्थनीय और जटिल होते स्वरूप को लेकर सार्वजनिक रूप से चिंता जता रहे हैं।
📌 मुख्य बिंदु:
AI मॉडल की जटिलता बढ़ने से वैज्ञानिकों में चिंता
ब्लैक बॉक्स की तरह बनते जा रहे हैं सिस्टम
पारदर्शिता में कमी, जवाबदेही का खतरा
गूगल, ओपनएआई, मेटा के विशेषज्ञों की चेतावनी
AI की दिशा में यह एक निर्णायक मोड़ हो सकता है — जहां आशा और आशंका दोनों साथ चल रही हैं। तकनीक को आगे बढ़ाने के साथ ही, इसे समझने और नियंत्रित करने की भी उतनी ही जरूरत है।
#AI_मॉडल #वैज्ञानिक_चिंता #आर्टिफिशियल_इंटेलिजेंस #गूगल #ओपनएआई #मेटा #ब्लैक_बॉक्स #AI_भविष्य