AI-171 फ्लाइट की क्रैशलैंडिंग पर आई रिपोर्ट ने भारत के विमानन क्षेत्र में कृत्रिम बुद्धिमत्ता (AI) के बढ़ते उपयोग पर गहरे सवाल खड़े कर दिए हैं। रिपोर्ट में बताया गया है कि यह दुर्घटना मानवीय भूल नहीं, बल्कि AI द्वारा संचालित निर्णय प्रणाली की चूक थी, जिसने अंतिम क्षणों में गलत लैंडिंग प्रोफाइल तैयार की और पायलट के हस्तक्षेप से पहले ही कंट्रोल छीन लिया।

यह पहली बार नहीं है जब आधुनिक विमानन में ऑटोमेशन को लेकर संकट पैदा हुआ हो। लेकिन AI-171 का मामला भारत में हुआ है — एक ऐसा देश जो तेज़ी से तकनीकी प्रगति कर रहा है लेकिन AI नियमन के मामले में अभी भी विकसित देशों से पीछे है।

डायरेक्टोरेट जनरल ऑफ सिविल एविएशन (DGCA) पर अब सवाल उठ रहे हैं — क्या इस AI सॉफ़्टवेयर को पर्याप्त सुरक्षा परीक्षणों से गुजारा गया था? क्या पायलटों को ऐसे हालात में मशीन के निर्णय को चुनौती देने के लिए प्रशिक्षित किया गया था? और सबसे अहम, जब ऐसी कोई चूक हो, तो जवाबदेही तय कैसे हो?

एयरलाइन कंपनी अब अपने AI सॉफ्टवेयर प्रदाताओं की ओर इशारा कर रही है, जबकि तकनीकी कंपनियां अनुबंधों और गोपनीयता की आड़ में छुप रही हैं। नतीजा — आम नागरिकों के लिए एक जवाबदेही का शून्य, जिसमें ना कंपनी, ना तकनीक और ना ही व्यवस्था खुद को जिम्मेदार मानती दिखती है।

लेकिन असली सवाल है — विश्वास का। जब विमान को उड़ाने में इंसान नहीं, मशीनों का नियंत्रण बढ़ रहा है, तो क्या यात्री आंख मूंदकर उस टेक्नोलॉजी पर भरोसा करें जो गलती भी कर सकती है, और जिस पर सवाल भी नहीं पूछे जा सकते?

भारत अगर AI आधारित विमानन और मोबिलिटी की ओर बढ़ रहा है, तो उसे केवल टेक्नोलॉजी नहीं, जवाबदेह टेक्नोलॉजी अपनानी होगी। जहां हर सिस्टम की पारदर्शिता हो, और दुर्घटना की स्थिति में जिम्मेदारी भी तय हो सके।

AI-171 की दुर्घटना एक चेतावनी है — कि AI केवल एक सहायक नहीं, कभी-कभी निर्णायक भी बन सकता है। और जब आकाश में कोई गलती होती है, तो उसका कोई ‘अनडू’ बटन नहीं होता।

#एआई_विफलता #जवाबदेही_कौन #AI_क्रैश #मशीनों_की_चूक #एआई_रिपोर्ट #तकनीकी_गलती