AI in Courts: गुजरात हाई कोर्ट ने न्यायपालिका में आर्टिफिशियल इंटेलिजेंस (AI) के उपयोग को लेकर एक बेहद सख्त और स्पष्ट ‘AI पॉलिसी’ जारी की है।
गुजरात हाई कोर्ट ने अपनी नई नीति में स्पष्ट किया है कि न्याय वितरण में ‘मानवीय सर्वोच्चता’ (Human Supremacy) बनी रहेगी। AI का उपयोग केवल गति बढ़ाने के लिए किया जाएगा, न कि न्यायिक तर्क (Judicial Reasoning) के विकल्प के रूप में। अहमदाबाद में जिला जजों के सम्मेलन में पेश की गई इस नीति का मूल मंत्र है— “मानवीय विवेक का कोई विकल्प नहीं”। कोर्ट ने साफ कर दिया है कि AI का इस्तेमाल केवल प्रशासनिक कार्यों और कानूनी शोध (Research) तक ही सीमित रहेगा, यह किसी भी सूरत में जज की जगह नहीं ले सकता।
इन कामों पर ‘कम्पलीट बैन’ (What is Prohibited?)
- पॉलिसी के अनुसार, AI का उपयोग प्रत्यक्ष या अप्रत्यक्ष रूप से निम्नलिखित कार्यों के लिए नहीं किया जा सकता।
- फैसला और ड्राफ्टिंग: कोई भी आदेश, बेल (Bail) का फैसला, सजा का निर्धारण या अंतिम निर्णय AI से नहीं लिखावाया जा सकता।
- तथ्यों की व्याख्या: सबूतों का वर्गीकरण, गवाहों के बयानों का मूल्यांकन या कानूनों की व्याख्या करने के लिए AI प्रतिबंधित है।
- तथ्य खोजना: अदालती कार्यवाही में तथ्यों या कानूनी बारीकियों को खोजने के लिए AI का सहारा नहीं लिया जाएगा।
- सबूतों से छेड़छाड़: AI के जरिए सबूतों को गढ़ना, बदलना या संवारना पूरी तरह वर्जित है।
AI के बड़े खतरे (The Risks Involved)
- हाई कोर्ट ने AI के इस्तेमाल को लेकर कुछ गंभीर चिंताएं जताई हैं, जिन्हें ‘संस्थागत अनुशासन’ से मैनेज करना जरूरी है।
- Hallucinations: AI अक्सर गलत या काल्पनिक जानकारी (Fake Citations) दे सकता है।
- Bias (पक्षपात): एल्गोरिदम में छिपे पूर्वाग्रह न्याय की निष्पक्षता को प्रभावित कर सकते हैं।
- Confidentiality: पक्षकारों, गवाहों या वकीलों की पहचान और संवेदनशील डेटा लीक होने का खतरा।
- Judicial Independence: तकनीक पर अत्यधिक निर्भरता से न्यायपालिका की स्वतंत्रता कमजोर हो सकती है।
कहाँ मिलेगी ‘छूट’? (Where is AI Allowed?)
- पॉलिसी कुछ सीमित क्षेत्रों में AI के उपयोग की अनुमति देती है, लेकिन “मानवीय विवेक” की शर्त के साथ।
- लीगल रिसर्च: पुराने फैसलों को ढूंढना, मिसालें (Precedents) खोजना और कानूनों की व्याख्या का प्रारंभिक काम।
- प्रशासनिक कार्य: केस अलॉटमेंट, आईटी विभाग के लिए कोड जनरेशन, और सार्वजनिक नोटिस या सर्कुलर का ड्राफ्ट तैयार करना।
- उत्पादकता बढ़ाना: प्रेजेंटेशन बनाना, ट्रेनिंग टेम्पलेट्स तैयार करना और ऑफिस के रूटीन कामों को ऑटोमेट करना।
जवाबदेही तय: “जज ही होंगे जिम्मेदार”
- पॉलिसी में व्यक्तिगत जिम्मेदारी पर विशेष जोर दिया गया है।
- Delegation Prohibited: जज अपने नाम से जारी होने वाले किसी भी आदेश या टिप्पणी की जिम्मेदारी AI पर नहीं डाल सकते।
- स्वतंत्र सत्यापन: यदि AI किसी केस का हवाला (Citation) देता है, तो उसे ‘प्राइमरी सोर्स’ (मूल कानूनी किताबों/वेबसाइट) से वेरिफाई करना अनिवार्य है।
- रिव्यू अनिवार्य: AI द्वारा तैयार किए गए किसी भी प्रशासनिक कंटेंट को पब्लिश करने से पहले एक ‘योग्य मानव अधिकारी’ द्वारा चेक किया जाना जरूरी है।
निष्कर्ष: तकनीक सहायक है, स्वामी नहीं
गुजरात हाई कोर्ट की यह पॉलिसी भारत की अन्य अदालतों के लिए भी एक मॉडल बन सकती है। यह संदेश साफ है कि भविष्य की अदालतों में डेटा और एल्गोरिदम का स्वागत है, लेकिन न्याय का तराजू हमेशा एक इंसान (जज) के हाथ में ही रहेगा, जो अपनी चेतना और सहानुभूति से फैसला करता है।

