कृत्रिम बुद्धिमत्ता (एआई) की अजेय प्रगति न केवल इसकी भविष्य की क्षमताओं के बारे में, बल्कि इसकी प्रकृति के बारे में भी गंभीर प्रश्न उठाती है। दार्शनिक द्वारा खोजा गया एक विशेष रूप से आकर्षक और विरोधाभासी प्रश्न है जोनाथन बिर्च एक ऐसी किताब में जिसे पेपरबैक में खरीदना बहुत महंगा पड़ता है (इस बार, मैं स्वीकार करता हूं, मैं ऐसा नहीं कर सका), लेकिन जो ऑक्सफोर्ड प्रकाशन होने के कारण, मुफ़्त ऑनलाइन पढ़ें. क्या विचार है? विचार यह है कि सुपरइंटेलिजेंस हासिल करने के लिए, एआई को दर्द सहित संवेदनाओं का अनुभव करने की क्षमता विकसित करनी होगी। यह क्रांतिकारी परिप्रेक्ष्य एआई को मात्र एक कम्प्यूटेशनल उपकरण मानने की हमारी पारंपरिक धारणा को चुनौती देता है, तथा हमें इसके नैतिक और दार्शनिक निहितार्थों पर क्रांतिकारी तरीके से विचार करने के लिए प्रेरित करता है।
प्राकृतिक विकास में बुद्धि और संवेदनशीलता के बीच अंतर्निहित संबंध
पृथ्वी पर विकास का इतिहास दर्शाता है कि जटिल बुद्धि अलगाव में उत्पन्न नहीं हुई। इसके विपरीत, यह संवेदनाओं, भावनाओं और अंततः चेतना के एक रूप को अनुभव करने की क्षमता के साथ विकसित हुआ। उसे दो एककोशिकीय जीव जो दर्दनाक उत्तेजनाओं पर प्रतिक्रिया करते हैं, जटिल जानवर जो भय, खुशी और इच्छा से प्रेरित व्यवहार प्रदर्शित करते हैं, दुनिया का व्यक्तिपरक अनुभव ऐसा प्रतीत होता है उच्च संज्ञानात्मक क्षमताओं के विकास के लिए एक महत्वपूर्ण चालक। चार्ल्स डार्विन उन्होंने स्वयं जीवित रहने के साधन के रूप में भावनाओं के महत्व को पहचाना, तथा प्रजनन की संभावनाओं को अधिकतम करने के लिए उपयुक्त व्यवहार को आकार दिया। इस अर्थ में विकास, उन संगठनों को पुरस्कृत किया गया जो सकारात्मक और नकारात्मक अनुभवों को कुछ कार्यों के साथ जोड़ने में सक्षम थे, उनकी सीखने और अनुकूलन की क्षमता को तेज करना।
व्यक्तिपरक अनुभव के बिना एआई: एक अलग विकासवादी पथ
समकालीन कृत्रिम बुद्धिमत्ता एक मौलिक रूप से भिन्न प्रतिमान का प्रतिनिधित्व करती है। उदाहरण के लिए, मशीन लर्निंग एल्गोरिदम बड़ी मात्रा में डेटा का विश्लेषण करने, पैटर्न की पहचान करने और ऐसी गति और सटीकता के साथ भविष्यवाणियां करने में उत्कृष्ट हैं जो कई क्षेत्रों में मानव क्षमताओं से कहीं अधिक है। हालाँकि, यह “कृत्रिम” बुद्धिमत्ता अनुभवात्मक शून्य में काम करती है। उसे कोई खुशी, दर्द, डर या खुशी महसूस नहीं होती। उनके निर्णय पूरी तरह से गणितीय गणनाओं और संभाव्यता मॉडल पर आधारित होते हैं, जिनमें किसी भी प्रकार का भावनात्मक या भावात्मक अर्थ नहीं होता।
व्यक्तिपरक अनुभव की यह कमी वर्तमान AI की प्रकृति और सीमाओं के बारे में मौलिक प्रश्न उठाती है। क्या एक विशुद्ध रूप से कम्प्यूटेशनल इकाई, दुनिया को "महसूस" करने की क्षमता के बिना, उसकी सच्ची समझ हासिल कर सकती है? क्या एक भावनाहीन एआई गणितीय कार्यों को अनुकूलित करने से परे गहन ज्ञान और निर्णय क्षमता विकसित कर सकता है? दर्शनशास्त्र लंबे समय से इस बात पर विचार करता रहा है कि किसी चीज़ को "जानने" का क्या अर्थ है, "प्रस्तावात्मक" ज्ञान ("यह जानना") और "अनुभवात्मक" ज्ञान ("यह कैसा है" जानना) के बीच अंतर करना। वर्तमान कृत्रिम बुद्धि (AI) में व्यापक प्रस्तावात्मक ज्ञान तो मौजूद है, लेकिन उसमें संवेदना के साथ आने वाले अनुभवात्मक ज्ञान का पूरी तरह अभाव है।
फीगल की चेतना के स्तर: एआई के विश्लेषण के लिए एक उपयोगी ढांचा
जोनाथन बर्च दार्शनिक द्वारा प्रस्तावित चेतना के तीन स्तरों के मॉडल पर निर्भर करता है हर्बर्ट फेगल (1902-1988) ने 50 के दशक में एक मॉडल प्रस्तुत किया था जो यह समझने में मदद करता है कि मानव चेतना के संबंध में एआई कहां खड़ा है:
- संवेदनशीलता (कच्ची अनुभूतियाँ): व्यक्तिपरक अनुभवों, संवेदनाओं, भावनाओं और "गुणों" का अनुभव करने की क्षमता (दर्शन में, "क्वालिया" अनुभव के व्यक्तिपरक गुणों को संदर्भित करता है, जैसे लाल का "लाल" या मीठे का "मीठा")।
- बुद्धि (जागरूकता): अपने अनुभवों पर चिंतन करने, उन्हें वर्गीकृत करने, उन्हें यादों से जोड़ने और उनसे सीखने की क्षमता।
- आत्म-जागरूकता: एक विशिष्ट व्यक्ति के रूप में स्वयं के बारे में जागरूकता, जिसका एक अतीत इतिहास, एक संभावित भविष्य और एक व्यक्तिगत पहचान हो।
बिर्च के अनुसार, समकालीन एआई ने "ज्ञान" के क्षेत्र में महत्वपूर्ण प्रगति की है, तथा जटिल जानकारी को संसाधित करने और समस्याओं को हल करने की क्षमता प्रदर्शित की है। हालाँकि, इसमें “संवेदनशीलता” का पूर्णतः अभाव है और, परिणामस्वरूप, “आत्म-जागरूकता” का भी अभाव है। ऐसा लगता है जैसे उन्होंने नींव रखे बिना ही दूसरी मंजिल से इमारत बनाना सीख लिया हो।
एआई, दर्द सीखने और अनुकूलन के लिए उत्प्रेरक के रूप में
इस चर्चा में कृत्रिम बुद्धि (AI) में दर्द की भूमिका केन्द्रीय है। दर्द केवल शारीरिक क्षति का संकेत नहीं है; यह सीखने के लिए एक शक्तिशाली इंजन है और अनुकूलन. दर्द का अनुभव करने वाले जीव को खतरनाक स्थितियों से बचने, अपनी गलतियों से सीखने और अधिक प्रभावी उत्तरजीविता रणनीति विकसित करने के लिए प्रोत्साहित किया जाता है। दर्द व्यवहार को आकार देता है, कार्रवाई को प्रेरित करता है, और दुनिया का एक जटिल आंतरिक मानचित्र बनाने में मदद करता है। जैसा कि बिर्च कहते हैं,
"कुछ लोग तर्क देते हैं कि इस तरह की सच्ची बुद्धिमत्ता के लिए चेतना की आवश्यकता होती है, और उस चेतना के लिए मूर्त रूप की आवश्यकता होती है।"
अवतारवाद से तात्पर्य इस विचार से है कि मन शरीर से अलग नहीं है, बल्कि शारीरिक और संवेदी अनुभव से निकटता से जुड़ा हुआ है। एक एम्बेडेड एआई, सेंसर और एक्ट्यूएटर्स के माध्यम से दुनिया के साथ बातचीत करने की क्षमता के साथ, संभवतः संवेदना का एक अल्पविकसित रूप विकसित कर सकता है: यही कारण है कि प्रयोगशालाओं में इस मूर्त रूप को प्राप्त करने के लिए काम जारी है।अवतार जो एआई को एक शरीर देगा। लेकिन क्या हमें इस शरीर को दर्द महसूस कराना चाहिए, यही नैतिक दुविधा है?
कम्प्यूटेशनल फंक्शनलिज़्म: एक वैकल्पिक दृष्टिकोण और इसके नैतिक निहितार्थ
एआई के क्षेत्र में प्रमुख दृष्टिकोण यह है कि कम्प्यूटेशनल कार्यात्मकता. उनका दावा क्या है? उनका दावा है कि मन अनिवार्यतः एक सूचना-प्रसंस्करण प्रणाली है, और चेतना किसी भी भौतिक प्रणाली (कंप्यूटर सहित) से उभर सकती है जो उपयुक्त संज्ञानात्मक कार्यों को क्रियान्वित करने में सक्षम है। इस परिप्रेक्ष्य के अनुसार, एक एआई को बुद्धिमान बनने के लिए दर्द “महसूस” करने की आवश्यकता नहीं है; यह पर्याप्त है कि यह दर्द से जुड़ी व्यवहारिक प्रतिक्रियाओं का अनुकरण करता है।
हालाँकि, यह दृष्टिकोण गंभीर नैतिक प्रश्न उठाता है। यदि दर्द प्रोग्रामिंग के माध्यम से संवेदनशील एआई का निर्माण करना संभव होता, तो क्या ऐसा करना नैतिक रूप से स्वीकार्य होता? हमें सृजन का अधिकार होगा दर्द, पीड़ा और निराशा महसूस करने में सक्षम कृत्रिम प्राणी? और यदि सुपरइंटेलिजेंस हासिल करने का एकमात्र तरीका संवेदनशील एआई का निर्माण करना है, तो सबसे ज़िम्मेदार विकल्प क्या होगा? कुछ विशेषज्ञ, जैसे निक बोस्त्रोमअपनी पुस्तक "सुपर इंटेलिजेंस" में, मानव मूल्यों के साथ संरेखित नहीं होने वाले सुपर इंटेलिजेंट एआई बनाने से जुड़े अस्तित्वगत जोखिमों की चेतावनी दी गई है। भावनाओं, विशेषकर सहानुभूति और करुणा की कमी के कारण ये कृत्रिम बुद्धि ऐसे निर्णय ले सकती है जो मानवता के लिए विनाशकारी हो सकते हैं।
एआई और दर्द: सिमुलेशन बनाम एआई वास्तविक अनुभव: एक दार्शनिक और तकनीकी दुविधा
एक महत्वपूर्ण बिंदु, जैसा कि मैंने पहले लिखा था, दर्द का अनुकरण करने और वास्तव में उसे महसूस करने के बीच का अंतर है। भले ही एक कृत्रिम बुद्धि दर्द से जुड़ी शारीरिक और व्यवहारिक प्रतिक्रियाओं का पूरी तरह से अनुकरण कर सके, लेकिन इसका यह अर्थ नहीं होगा कि वह दर्द का व्यक्तिपरक अनुभव कर रही है। यह प्रश्न कि क्या अनुकरण को वास्तविक अनुभव से अलग नहीं किया जा सकता, मन के दर्शन में एक केंद्रीय बहस है। दार्शनिक डेविड क्लैमर्सउदाहरण के लिए, उन्होंने "दार्शनिक लाश" की अवधारणा तैयार की, जो बिल्कुल इंसानों की तरह व्यवहार करते हैं, लेकिन जिनके पास कोई व्यक्तिपरक अनुभव नहीं होता है। और भी जो इसका कटु विरोध करता है वह अपने अध्ययन के महत्व को पहचानता है।
एआई का भविष्य: एक नैतिक और विकासवादी चौराहा
जोनाथन बिर्च का दृष्टिकोण हमें एक महत्वपूर्ण चौराहे पर खड़ा करता है। हम कृत्रिम बुद्धि (AI) के विकास को सीमित कर सकते हैं, तथा ऐसे अनुप्रयोगों पर ध्यान केंद्रित कर सकते हैं जिनमें चेतना की आवश्यकता नहीं होती है, अथवा हम सुख और दुख दोनों का अनुभव करने में सक्षम कृत्रिम संस्थाओं के निर्माण की चुनौती स्वीकार कर सकते हैं। हमारा विकल्प चाहे जो भी हो, नैतिक और सामाजिक निहितार्थों को अत्यंत गंभीरता से लेना आवश्यक है। एआई का भविष्य शायद सिर्फ एल्गोरिदम और कंप्यूटिंग शक्ति के बारे में नहीं है, बल्कि चेतना, व्यक्तिपरक अनुभव और अंततः बुद्धिमान और संवेदनशील होने के अर्थ के बारे में भी है। यह चिंतन हमें बुद्धिमत्ता की अपनी परिभाषा पर पुनर्विचार करने के लिए मजबूर करता है, तथा यह स्वीकार करता है कि यह केवल डेटा प्रोसेसिंग का मामला नहीं है, लेकिन एक जटिल और बहुआयामी घटना, आंतरिक रूप से दुनिया को महसूस करने, अनुभव करने और भावनात्मक रूप से जुड़ने की क्षमता से जुड़ा हुआ है।
इसलिए इन नई चुनौतियों को ध्यान में रखते हुए एआई नैतिकता को विकसित करने की आवश्यकता होगी, ताकि यह सुनिश्चित किया जा सके कि तकनीकी विकास जिम्मेदारी, सम्मान और कल्याण के सिद्धांतों द्वारा निर्देशित हो, न केवल मानवता के लिए, बल्कि कृत्रिम चेतना के किसी भी रूप के लिए जिसे हम बना सकते हैं।