टॉम तुगेंधाट वह अपने नोट्स से ऊपर देखते हैं। वह एक ब्रिटिश कंज़र्वेटिव सांसद हैं और उन्हें अभी-अभी पता चला है कि उनके कुछ सहयोगी चैटजीपीटी से अपने भाषण लिखवा रहे हैं। वह नाराज़ नहीं, बल्कि चिंतित हैं। "हम अपना फ़ैसला मशीनों को नहीं सौंप सकते," वे कहते हैं। यही दृश्य पूरे यूरोप के संसदीय कार्यालयों में दोहराया जा रहा है। कृत्रिम बुद्धिमत्ता लोकतंत्र के दरवाज़े पर दस्तक दे रही है, खुद को एक कुशल सहायक के रूप में पेश कर रही है। लेकिन मदद कहाँ खत्म होती है और प्रतिस्थापन कहाँ से शुरू होता है? ब्रिटेन और जापान में किए गए एक नए अध्ययन ने हज़ारों लोगों का साक्षात्कार लेकर इसका जवाब तलाशा। नतीजे साफ़ हैं: मतदाता ऐसे राजनेता चाहते हैं जो एआई का इस्तेमाल करें, न कि ऐसे राजनेता जिनकी जगह एआई ले ले।
सीमा मौजूद है, और यह सटीक रूप से खींची गई है।
टीम ट्रस्टट्रैकर 990 ब्रिटिश और 2.117 जापानी लोगों का सर्वेक्षण किया गया ताकि यह समझा जा सके कि एआई और राजनीति के मामले में जनता कहां रेखा खींचती है। ब्रिटेन में, लगभग आधे उत्तरदाताओं ने कहा कि वे सांसदों द्वारा सहायता के लिए एआई का उपयोग करने के विचार का समर्थन नहीं करते हैं। जब उनसे पूछा गया कि क्या वे निर्णय रोबोट या एल्गोरिदम को सौंपने के पक्ष में हैं, इनकार करने वालों की संख्या पाँच में से चार लोगों तक बढ़ गई है.
जापान में, स्थिति थोड़ी अलग है। इस देश का स्वचालन और रोबोटिक्स का एक लंबा इतिहास रहा है, सोसाइटी 5.0 की अवधारणा से लेकर नर्सिंग होम में देखभाल करने वाले रोबोट तक। यहाँ ज़्यादा खुलेपन की उम्मीद की जा सकती है। फिर भी, यहाँ भी, जनता ने मशीनों द्वारा राजनीतिक निर्णय लेने के विचार का कड़ा विरोध किया है। सहायता? शायद। प्रतिनिधिमंडल? कभी नहीं।
कौन हाँ कहता है और कौन ना कहता है?
आंकड़े दिलचस्प पैटर्न दिखाते हैं। युवा पुरुष महिलाओं और बुजुर्गों की तुलना में एआई और राजनीति के इस्तेमाल को ज़्यादा पसंद करते हैं। यह कोई आश्चर्य की बात नहीं है: वे तकनीक के साथ बड़े हुए हैं, इसका रोज़ाना इस्तेमाल करते हैं और इसके फ़ायदे देखते हैं। लेकिन एक और निर्णायक कारक है: सरकार पर भरोसा। जो लोग संस्थाओं पर भरोसा करते हैं, वे उन्हीं संस्थाओं द्वारा कृत्रिम बुद्धिमत्ता का उपयोग करने को अधिक स्वीकार करने के लिए तैयार होते हैं। हालांकि, जिन लोगों को राजनीतिक भरोसा कम है, उन्हें डर है कि एआई एक अपारदर्शी उपकरण बन जाएगा, जो एल्गोरिदम के पीछे जिम्मेदारी छिपाने का एक तरीका होगा।
कृत्रिम बुद्धिमत्ता के प्रति आम धारणा भी मायने रखती है। जो लोग एआई को एक लाभदायक तकनीक मानते हैं और इसके इस्तेमाल में आत्मविश्वास महसूस करते हैं, वे सांसदों द्वारा इसके इस्तेमाल के विचार के प्रति ज़्यादा खुले हैं। हालाँकि, जो लोग एआई से डरते हैं, वे राजनीति में भी इसे नकारते हैं।
फिर एक वैचारिक जिज्ञासा भी है। यूनाइटेड किंगडम में, दक्षिणपंथी मतदाता संसद में एआई के ज़्यादा पक्षधर हैं। जापान में, इसके विपरीत: वामपंथी मतदाता ज़्यादा खुले हैं। इस अंतर के कारण अभी स्पष्ट नहीं हैं, लेकिन यह निष्कर्ष महत्वपूर्ण है।
सहायता हाँ, प्रतिस्थापन कभी नहीं
सहायता और प्रत्यायोजन के बीच का अंतर बेहद महत्वपूर्ण है। मतदाता एआई को इस तरह से अस्वीकार नहीं करते। वे स्वीकार करते हैं कि एक सांसद हज़ारों दस्तावेज़ों की छानबीन करने, किसी क़ानून के प्रभाव का अनुकरण करने और स्पष्ट मसौदे लिखने के लिए बुद्धिमान उपकरणों का इस्तेमाल करता है। समस्या तब पैदा होती है जब एल्गोरिथम किसी इंसान की जगह फ़ैसले लेता है।
यह बात तो सही है। इतालवी चैंबर ने तीन चैटबॉट पेश किए हैं (नोर्मा, एमएसई और डेपुचैट) विधायी कार्य में तेजी लाने के लिए। मानक विनियामक मिसालें खोजने में मदद करता है। एमएसई संशोधनों में परिवर्तन का सुझाव देता है। डेपुचैट यह संसदीय गतिविधियों से जुड़े सवालों के जवाब देता है। इनमें से कोई भी उपकरण मानवीय निर्णय का स्थान नहीं ले सकता। वे उपकरण हैं, निर्णयकर्ता नहीं। क्या वे सचमुच काम करते हैं? क्या वे हमेशा विश्वसनीय डेटा देते हैं? क्या उनमें हेरफेर किया जा सकता है? क्या वे खुद में हेरफेर कर सकते हैं? यह ज्ञात नहीं है।
अन्ना अस्कानीचैंबर के उपाध्यक्ष, ने स्पष्ट रूप से कहा: "यह सांसदों के काम को बदलने के बारे में नहीं है, बल्कि उन्हें समर्थन और मज़बूती देने के बारे में है।" इस परियोजना में मिलान पॉलिटेक्निक विश्वविद्यालय, रोमा ट्रे विश्वविद्यालय और अल्मा ह्यूमन एआई कंसोर्टियम शामिल थे। दो साल की मेहनत से कुछ ऐसा बनाया गया जो उन्हें बदले बिना मददगार हो। शायद।
जोखिम को विश्वास कहते हैं
मैं फिर से इसी बात पर आता हूं कि असली समस्या विश्वास की है। केपीएमजी-मेलबर्न विश्वविद्यालय का एक वैश्विक अध्ययन 47 देशों में 48.000 लोगों पर किए गए एक सर्वेक्षण से पता चला है कि, हालाँकि 66% लोग पहले से ही नियमित रूप से एआई का उपयोग करते हैं, 58% इसे अविश्वसनीय मानते हैं। यह एआई और राजनीति पर भी लागू होता है। अगर नागरिकों को लगता है कि एआई मानवीय निर्णय की जगह ले रहा है, तो समर्थन खत्म हो जाएगा।
संसदें विश्वास और वैधता पर निर्भर करती हैं। यदि एआई को जिम्मेदारी सौंपने या अपारदर्शी एल्गोरिदम के पीछे निर्णय छिपाने के तरीके के रूप में देखा जाता है, तो जनता की प्रतिक्रिया कठोर हो सकती है। इसीलिए पारदर्शिता ज़रूरी है। मतदाताओं को यह पता होना चाहिए कि कृत्रिम बुद्धिमत्ता का इस्तेमाल कब और कैसे किया जा रहा है, और उन्हें यह भरोसा होना चाहिए कि अंतिम फ़ैसला मानवीय ही होगा।
एआई और राजनीति: एक संभावित सह-अस्तित्व
कृत्रिम बुद्धिमत्ता राजनीति में तो आएगी ही। यह पहले से ही मौजूद है। सवाल यह नहीं है कि क्या, बल्कि यह है कि कैसे। सावधानी से इस्तेमाल किया जाए तो यह संसदों को ज़्यादा कुशल, ज़्यादा पारदर्शी और आधुनिक विधायी जटिलताओं को बेहतर ढंग से प्रबंधित करने में सक्षम बना सकती है। अगर इसका गलत इस्तेमाल किया जाए तो यह विश्वास और वैधता को कमज़ोर कर सकती है।
मतदाताओं का संदेश स्पष्ट है: एआई सलाह दे सकता है, लेकिन आदेश नहीं दे सकतायह दस्तावेज़ तो तैयार कर सकता है, लेकिन हमारे लिए क़ानून नहीं लिख सकता। यह परिदृश्यों का अनुकरण तो कर सकता है, लेकिन यह नहीं चुन सकता कि किसका अनुसरण किया जाए।
तकनीक के ज़रिए लोकतंत्र ज़्यादा कुशल बन सकता है, लेकिन उसे मानवीय ही रहना होगा। फ़िलहाल, ज़्यादातर लोगों के लिए वह लाल रेखा मौजूद है। और उसे पार नहीं किया जा सकता।