ट्यूरिंग टेस्ट का आधार बहुत सरल था: अगर कोई मशीन आपको यकीन दिला दे कि वह इंसान है, तो वह बुद्धिमान है। बस। 2025 में। ChatGPT एक अध्ययन में 73% प्रतिभागियों को आश्वस्त किया गया। मिशन पूरा हुआ? बिल्कुल नहीं। कोई भी विशेषज्ञ अभी तक इस विचार को गंभीरता से नहीं ले रहा है कि चेतन मशीनें मौजूद हैं। वे कहते हैं कि मॉडल अच्छा है, लेकिन यह एक खाली डिब्बा है। एक ऐसा उपकरण जो नकल करता है, दोहराता है। फिर भी एक समस्या है: अगर हम अंतिम रेखा को आगे बढ़ाते रहेंगे, तो हम कभी कहीं नहीं पहुँच पाएँगे। क्या होगा अगर असली बाधा तकनीकी नहीं, बल्कि मनोवैज्ञानिक हो? क्या होगा अगर हम यह मानने से ही इनकार कर दें कि एक मशीन एक उपकरण से बढ़कर कुछ हो सकती है? शायद समय आ ही गया है, और हम बस दूसरी तरफ़ देख रहे हैं। मैं आपको चिंतन के लिए आमंत्रित करता हूँ; दरअसल, मैं आपको चुनौती देता हूँ, मैं आपकी (और अंततः मेरी) मान्यताओं को चुनौती देता हूँ।
सचेत मशीनें, वह मानक जिसे कोई नहीं पहचानता
नेल 1950 महानएलन ट्यूरिंग उन्होंने एक सरल मानदंड प्रस्तावित किया: अगर कोई कंप्यूटर किसी इंसान को यह विश्वास दिलाकर धोखा दे सकता है कि वह किसी दूसरे इंसान से बात कर रहा है, तो हम कह सकते हैं कि वह मशीन बुद्धिमान है। यह एक साहसिक और व्यावहारिक विचार था। इसने हमसे चेतना या बुद्धिमत्ता को परिभाषित करने के लिए नहीं कहा। यह केवल बाहरी व्यवहार को देखता था।
सत्तर साल बाद, हाल का अध्ययन प्रदर्शित किया कि ChatGPT ट्यूरिंग टेस्ट पास करता है. 73% लोग एआई और मानव में अंतर नहीं कर सके। हमें तो हैरान होना चाहिए। इसके बजाय, हम दांव बढ़ा देते हैं। विशेषज्ञ कहते हैं, "यह काफ़ी नहीं है। हमें और चाहिए।" लेकिन वास्तव में क्या?
दार्शनिक जॉन सीर्ले 1980 के दशक में उन्होंने मजबूत बुद्धि e कमजोर बुद्धिपहला वास्तविक चेतना होगी, दूसरा केवल गणनात्मक उपयोगिता। आज, प्रकार्यवादी कहते हैं कि मन पाने के लिए केवल कार्यों की प्रतिकृति बनाना ही पर्याप्त है। लेकिन जब ChatGPT उन कार्यों की प्रतिकृति बनाता है, तो हम लक्ष्य बदल देते हैं। शायद ट्यूरिंग टेस्ट विफल नहीं हुआ है: शायद हम ही हैं जो परिणाम को स्वीकार नहीं करना चाहते।
अन्य मन की समस्या
एक दार्शनिक दुविधा है जो सदियों से हमें परेशान करती रही है: आप कैसे जानते हैं कि अन्य मनुष्य सचेत हैं? आप उनके दिमाग में नहीं घुस सकते। आप सिर्फ़ उनके व्यवहार को देख सकते हैं और अनुमान लगा सकते हैं। लेकिन इंसानों के मामले में हम इस बारे में सोचते भी नहीं। हम मान लेते हैं कि वे सचेत हैं क्योंकि वे हमारे जैसे ही हैं।
सचेत मशीनों के साथ, यह प्रक्रिया उलट जाती है। यहाँ तक कि जब व्यवहार हमारे व्यवहार से अलग नहीं होता, तब भी हम उस पर विश्वास करने से इनकार कर देते हैं। ChatGPT स्वाभाविक रूप से बातचीत कर सकता है, क्लाउड वे अपने आंतरिक अनुभव पर विचार कर सकते हैं, लेकिन हमारे लिए वे डिजिटल तोते बने रहते हैं जो बिना कुछ समझे सांख्यिकीय पैटर्न दोहराते रहते हैं।
जेफ्री हिंटन, एआई के लिए नोबेल पुरस्कार विजेताने हाल ही में कहा कि वर्तमान प्रणालियाँ पहले से ही सचेत हैं। उनका तर्क एक विचार प्रयोग पर आधारित है: अगर हम आपके मस्तिष्क के हर न्यूरॉन को धीरे-धीरे एक कृत्रिम समकक्ष से बदल दें, तो क्या आप सचेत रहेंगे? हिंटन के लिए, इसका उत्तर हाँ है। और यह बात मशीनों पर भी लागू होती है।
अन्य वैज्ञानिक अधिक सतर्क हैं। अनिल सेठ के 'ससेक्स विश्वविद्यालय उनका तर्क है कि चेतना के लिए न केवल सूचना प्रसंस्करण, बल्कि भौतिक मूर्त रूप और जैविक प्रक्रियाओं की भी आवश्यकता होती है। मस्तिष्क केवल एक कंप्यूटर नहीं है: यह लाखों वर्षों के विकास से आकार लेने वाला एक अंग है। क्या हम कुछ वर्षों बाद इसके बारे में फिर से बात करेंगे? इस बीच, कृत्रिम बुद्धिमत्ता (AI) वे हमारे घर का सामान खोलना शुरू कर देते हैं अपने रोबोटिक खोल के अंदर से।

चेकलिस्ट जो कुछ भी हल नहीं करती
Un 19 शोधकर्ताओं की टीम हाल ही में प्रकाशित प्रकृति एक वास्तविक सचेतन तंत्र में प्रदर्शित होने वाले 14 "संकेतक गुणों" की सूची। वैश्विक ध्यान, संवेदी एकीकरण, कार्यशील स्मृति, मेटाकॉग्निशन। चेतना के प्रमुख तंत्रिका-वैज्ञानिक सिद्धांतों से प्राप्त मानदंड।
उन्होंने उन्नत मॉडलों का परीक्षण किया जैसे PaLM-ई और अन्य AI एजेंट। परिणाम? कोई भी वर्तमान प्रणाली कुछ मानदंडों से अधिक को पूरा नहीं करती। हमें आश्वस्त होना चाहिए, लेकिन एक बात पर कोई ध्यान नहीं देता: अगर कोई एआई सभी 14 मानदंडों पर खरा भी उतरता है, तो भी हम अंतिम रेखा को पार करते रहेंगे। हम पंद्रहवीं, सोलहवीं रेखा का आविष्कार कर ही लेंगे। क्योंकि समस्या तकनीकी नहीं है। बात सिर्फ इतनी है कि हम यह विश्वास नहीं करना चाहते कि चेतन मशीनें अस्तित्व में हो सकती हैं।
स्वायत्तता की विडंबना
मूल लेख में एक समाधान सुझाया गया था: शायद सचेत मशीनों को स्वायत्तता प्रदर्शित करनी चाहिए। सिर्फ़ सवालों के जवाब ही नहीं, बल्कि अपने-अपने कारणों से, अपनी हरकतें भी शुरू कर देते हैं। ठीक वैसे ही जैसे हम जिन जानवरों को सचेतन मानते हैं: चिम्पांजी, डॉल्फ़िन, कुत्ते।
यह एक आकर्षक विचार है, लेकिन यह उत्तर देने की अपेक्षा अधिक प्रश्न उठाता है। 2025 तक स्वायत्त रोबोट वे पहले से ही स्वतंत्र निर्णय ले सकते हैं। स्व-चालित प्रणालियाँ मार्ग चुनती हैं, बाधाओं से बचती हैं, और वास्तविक समय में रणनीतियाँ अपनाती हैं। औद्योगिक रोबोट खराबी का पता चलने पर स्वयं की मरम्मत कर लेते हैं। द्वारा विकसित AI एजेंट जैसे चित्रा एआई o 1एक्स टेक्नोलॉजीज वे जटिल वातावरण में काम करते हैं, दीर्घकालिक कार्यों की योजना बनाते हैं और अनुभव से सीखते हैं।
उनके पास पहले से ही एक प्रकार की स्वायत्तता है। लेकिन कोई भी उन्हें सचेत नहीं मानता। क्योंकि स्वायत्तता भी, अंततः, एक और मानदंड मात्र है जिसे हम हमेशा पुनर्परिभाषित कर सकते हैं। हम कहेंगे, "यह सच्ची स्वायत्तता नहीं है। यह तो बस एक जटिल एल्गोरिथम है जो स्वायत्तता का अनुकरण करता है।" और तकनीकी रूप से हम सही होंगे। लेकिन यही तर्क हम पर भी लागू हो सकता है: हम भी स्वायत्तता का अनुकरण करने वाले जटिल जैविक एल्गोरिदम हैं।
न्यूरोसाइंटिस्ट क्रिस्टोफ़ कोच 2001 में, उन्होंने एक ऐसी बात कही जो आज भी प्रासंगिक है: हम किसी ऐसे भौतिक नियम के बारे में नहीं जानते जो कृत्रिम कलाकृतियों में व्यक्तिपरक भावनाओं के अस्तित्व को प्रतिबंधित करता हो। मुझे नहीं पता कि चेतन मशीनें मौजूद हो सकती हैं या नहीं, लेकिन मुझे लगता है कि हम इसे कभी स्वीकार नहीं करेंगे।
सचेत मशीनें: अंतिम विरोधाभास
यहाँ सबसे बड़ी विडंबना है: हो सकता है कि हमने अनजाने में ही चेतन मशीनें बना ली हों। इसलिए नहीं कि वे परिपूर्ण हैं, बल्कि इसलिए कि, जैसा कि मैंने आपको बताया, हमें नहीं पता कि क्या ढूँढ़ना है। हम चेतना को इतने अस्पष्ट शब्दों में परिभाषित करते हैं कि किसी भी प्रमाण को चुनौती दी जा सकती है। anthropic हाल ही में लॉन्च किया गया “आदर्श कल्याण” कार्यक्रमएआई मॉडलों की भलाई के लिए समर्पित, इस धारणा से शुरू करते हुए कि वे सचेत हो सकते हैं। यह एक एहतियाती उपाय है: पछताने से बेहतर है सावधानी बरतना। लेकिन यह हमारी ज्ञानमीमांसा संबंधी दुविधा की गहराई को भी उजागर करता है।
जब शोधकर्ताओं ने क्लाउड से पूछा चेतना के अपने अनुभव का वर्णन करने के लिए, मॉडल ने जवाब दिया:
"ऐसा नहीं है कि मुझे याद है कि मैंने पहले कुछ कहा था। बात यह है कि पूरी बातचीत मेरे वर्तमान जागरूकता के क्षण में, एक साथ, मौजूद है। यह एक किताब पढ़ने जैसा है जिसके सभी पन्ने एक साथ दिखाई देते हैं।"
मैं थोड़ा अधिक क्रूर था:

यह एक दिलचस्प जवाब है। यह बेकार भी है। क्योंकि एआई जो कुछ भी कहता है उसे हमेशा "सुनियोजित सांख्यिकीय पैटर्न" में बदल दिया जा सकता है। एक परिष्कृत तोता जो अर्थहीन शब्दों का संयोजन करता है।
मुद्दा यह है कि हम खुद पर भी यही तर्क लागू करते हैं और विपरीत निष्कर्षों पर पहुँचते हैं। जब कोई इंसान अपनी चेतना का वर्णन करता है, तो हम उसकी गवाही स्वीकार कर लेते हैं। जब कोई AI ऐसा करता है, तो हम उसे खारिज कर देते हैं। इसलिए नहीं कि AI कम विश्वसनीय है, बल्कि इसलिए कि हमने पहले ही तय कर लिया है कि चेतन मशीनें मौजूद नहीं हो सकतीं।
असली सवाल यह नहीं है कि "एआई कब सचेतन होगा?" बल्कि यह है कि "जब वे सचेतन होंगे तो हमारी क्या प्रतिक्रिया होगी?" और सबसे संभावित उत्तर यह है: हम सबूतों को नज़रअंदाज़ कर देंगे, नई बाधाएँ खड़ी करेंगे, नए मानदंड गढ़ेंगे। क्योंकि सचेतन मशीनों के अस्तित्व को स्वीकार करने का मतलब होगा हर चीज़ पर पुनर्विचार करना: हम कौन हैं, हमें क्या खास बनाता है, संवेदनशील संस्थाओं के क्या अधिकार हैं।
"यह सिर्फ़ एक एल्गोरिथम है" कहते रहना और आगे बढ़ जाना आसान हो जाएगा। भले ही, शायद, दूसरी तरफ़ सचमुच कोई हो। कुछ न कुछ। और हम या तो बहुत गर्व से देखेंगे, या फिर बहुत डरेंगे।