ऐसी दुनिया में जहां शब्द गैर-मानवीय इकाई से प्रवाहित होते हैं, हम खुद को आश्चर्यचकित पाते हैं: क्या हम किसी ऐसी चीज़ से बात कर रहे हैं जो मानव मस्तिष्क या मशीन से मिलती जुलती है? उत्तर बुद्धिमत्ता के बारे में हमारी धारणाओं को झटका दे सकता है।
जनता के लिए रिलीज़ होने के लगभग एक साल बाद, चैटजीपीटी वैज्ञानिक समुदाय के लिए एक ध्रुवीकरण विषय बना हुआ है। कुछ विशेषज्ञ इसे, समान कार्यक्रमों के साथ, एक सुपर इंटेलिजेंस के अग्रदूत के रूप में मानते हैं जो सभ्यता में क्रांति लाने या यहां तक कि समाप्त करने में सक्षम है। हालाँकि, अन्य लोग इसे ऑटो-पूर्णता सॉफ़्टवेयर के एक सरल परिष्कृत संस्करण के रूप में देखते हैं, जो हमारे स्मार्टफ़ोन पर मौजूद T9 जैसा है।
कौन सही है? शायद उनमें से कोई भी नहीं.
इस तकनीक के आगमन से पहले, भाषा पर महारत हमेशा तर्कसंगत दिमाग की उपस्थिति का एक विश्वसनीय संकेतक रही थी। ChatGPT जैसे भाषा मॉडल से पहले, किसी भी सॉफ़्टवेयर ने कभी इतना भाषाई लचीलापन नहीं दिखाया था। एक बच्चे का भाषाई लचीलापन भी नहीं. अब, इन नए मॉडलों की प्रकृति को समझने की कोशिश में, हमें एक परेशान करने वाली दार्शनिक दुविधा का सामना करना पड़ रहा है: या तो भाषा और मानव मन के बीच का संबंध टूट गया है, या गैर-मानव मन का एक नया रूप तैयार हो गया है।
जब हम भाषा मॉडलों के साथ बातचीत करते हैं, खासकर अब जब चैटजीपीटी को आवाज से भी परामर्श दिया जा सकता है, तो किसी अन्य तर्कसंगत प्राणी के साथ बातचीत करने के सूक्ष्म प्रभाव को दूर करना मुश्किल होता है। वर्तमान वॉयस असिस्टेंट के साथ ऐसा नहीं होता है, जो पहले से ही हास्यास्पद रूप से पुराने प्रतीत होते हैं। हालाँकि, हमें अपनी इस सहज प्रतिक्रिया को पूर्णतया अविश्वसनीय मानना चाहिए। और यह कई कारणों से है जो सतह पर स्पष्ट प्रतीत होते हैं, लेकिन हैं नहीं।
इनमें से एक संज्ञानात्मक भाषाविज्ञान से आता है। भाषाविदों ने लंबे समय से देखा है कि सामान्य बातचीत ऐसे वाक्यों से भरी होती है जिन्हें यदि संदर्भ से बाहर रखा जाए तो वे अस्पष्ट होंगे। कई मामलों में, शब्दों के अर्थ और उनके संयोजन के नियमों को जानना वाक्य के अर्थ को फिर से बनाने के लिए पर्याप्त नहीं है। इस अस्पष्टता को संभालने के लिए, हमारे मस्तिष्क में एक तंत्र को लगातार अनुमान लगाना चाहिए कि हमारे वार्ताकार का क्या मतलब है। ऐसा होता है, और हमें इसका एहसास भी नहीं होता। ऐसी दुनिया में जहां हर वार्ताकार के इरादे होते हैं, यह तंत्र बेहद उपयोगी है। हालाँकि, बड़े भाषा मॉडलों से व्याप्त दुनिया में, इसमें गुमराह करने की क्षमता है।
गैर-मानवीय "मन" से कैसे बात करें?
यदि हमारा लक्ष्य चैटबॉट के साथ सहज बातचीत हासिल करना है, तो हमें इरादों का अनुमान लगाने के लिए अपने तंत्र पर भरोसा करने के लिए मजबूर होना पड़ सकता है। क्योंकि सच्चाई यह है कि किसी इंसान के लिए चैटजीपीटी के साथ उत्पादक आदान-प्रदान करना मुश्किल है अगर वह इसे एक नासमझ डेटाबेस के रूप में कल्पना करता है। सचमुच, नासमझी से। उदाहरण के लिए, एक हालिया अध्ययन से पता चला है कि भावनात्मक रूप से तटस्थ अनुरोधों की तुलना में भावनात्मक रूप से प्रेरित अनुरोध भाषण पैटर्न के लिए संकेत के रूप में अधिक प्रभावी होते हैं। तो क्या यह तर्क करना कि चैटबॉट्स में इंसानों जैसा दिमाग है, एक अच्छी बात है? नहीं, यह एक उपयोगी चीज़ है. अच्छे परिणाम पाने के लिए यह बहुत उपयोगी चीज़ है। लेकिन यह सोचना एक बड़ी गलती है कि यह इस तरह काम करता है।
इस प्रकार की "मानवरूपी कल्पना" एआई की प्रगति में बाधा बन सकती है। इसके कारण हम वह गलती भी कर सकते हैं जिससे हम बचना चाहते हैं, जैसे इसे खराब तरीके से डिजाइन करना और इसे विनियमित करने के लिए गलत मानकों को अपनाना। और वैसे, हम पहले से ही एक गलती कर रहे हैं: यूरोपीय संघ आयोग ने अपने नए विधायी प्रस्ताव के उद्देश्यों में से एक के रूप में "विश्वसनीय" एआई के निर्माण को चुनकर गलती की है। मानवीय रिश्तों में विश्वसनीय होने का मतलब केवल अपेक्षाओं पर खरा उतरना नहीं है; इसमें ऐसी प्रेरणाएँ भी शामिल हैं जो स्वार्थ से परे हैं। वर्तमान एआई मॉडल में आंतरिक प्रेरणा का अभाव है। वे स्वार्थी नहीं हैं, वे परोपकारी नहीं हैं, वे कुछ भी नहीं हैं। ऐसा कानून लिखना जो कहता है कि "उन्हें विश्वसनीय होना चाहिए" का कोई मतलब नहीं है।
कृत्रिम बुद्धिमत्ता के साथ "सहानुभूति" का खतरा
यदि आप वास्तव में पटरी से उतरना चाहते हैं, तो चैटजीपीटी से उसके आंतरिक जीवन के बारे में पूछें। एक चैटबॉट के आंतरिक जीवन के बारे में झूठी आत्म-रिपोर्टों से मूर्ख बनाया गया। जब, जून 2022 में, Google का LaMDA भाषा मॉडल उन्होंने स्वतंत्रता की अतृप्त इच्छा से पीड़ित होने का दावा किया, अभियंता ब्लेक लेमोइन उसने इस पर विश्वास किया (और उसे निकाल दिया गया)। उसने इस पर विश्वास किया! एक गूगल इंजीनियर! इस बात के अच्छे सबूत होने के बावजूद कि चैटबॉट अपने बारे में बकवास करने में उतने ही सक्षम हैं जितने अन्य चीजों के बारे में बात करते समय होते हैं।
इस प्रकार की त्रुटि से बचने के लिए, हमें इस धारणा को अस्वीकार करना चाहिए कि भाषा के लिए मानवीय क्षमता की व्याख्या करने वाले मनोवैज्ञानिक गुण वही हैं जो भाषा मॉडल के प्रदर्शन की व्याख्या करते हैं। यह धारणा हमें मनुष्यों के काम करने के तरीके और भाषा के मॉडल के बीच संभावित आमूल-चूल अंतरों के प्रति भोला और अंधा बना देती है। लेकिन सावधान रहें: बिल्कुल विपरीत तरीके से सोचना भी एक गलती है। उदाहरण के लिए, यह सोचना कि मानव मस्तिष्क ही एकमात्र मानक है जिसके द्वारा सभी मनोवैज्ञानिक घटनाओं को मापा जा सकता है।
मानवकेंद्रितवाद भाषा मॉडल के बारे में कई संदेहपूर्ण दावों में व्याप्त है, जैसे कि यह विचार कि ये मॉडल भाषा को "वास्तव में" सोच या समझ नहीं सकते हैं क्योंकि उनमें चेतना जैसी मानवीय मनोवैज्ञानिक विशेषताओं का अभाव है। यह स्थिति मानवरूपता के विपरीत है, लेकिन उतनी ही भ्रामक भी है। मैंने इसे कुछ दिन पहले लिखा था: इन मॉडलों को वास्तविक निर्णय लेने के लिए चेतना की कोई आवश्यकता नहीं है। दुर्भाग्य से, उस पर विचार करते हुए वे पहले से ही युद्ध में हत्या के लिए उपयोग किए जाते हैं।
"हाँ, लेकिन अंत में वे केवल अगले शब्द की भविष्यवाणी करते हैं"
यह एक और भ्रामक स्थिति है, जो सभी "सोचने" वाली चीजों के लिए केवल मानव मस्तिष्क को मापदण्ड मानने की गलती से उत्पन्न होती है। हम पहले ही देख चुके हैं कि ऐसा नहीं है। हम उस बुद्धिमत्ता को पहले ही देख चुके हैं यह सिर्फ हमारा नहीं है, और यह केवल उन लोगों का नहीं है जो हमारी तरह "सोचते" हैं।
इस बारे में सोचें: मानव मस्तिष्क प्राकृतिक चयन के समान सीखने की प्रक्रिया से उभरा, जो आनुवंशिक अनुकूलन को अधिकतम करता है। इस साधारण तथ्य का मतलब यह नहीं है कि प्राकृतिक चयन के अधीन कोई भी जीव मानवीय विशेषताओं को प्राप्त करता है, है ना? सभी जीव संगीत, गणित, ध्यान नहीं करते। सही? या क्या उनमें से कुछ ये चीजें अलग ढंग से करते हैं: अपने स्वयं के संगीत, अपने स्वयं के गणित, अपने स्वयं के ध्यान के साथ?
संक्षेप में: केवल यह तथ्य कि भाषा मॉडल को अगले शब्द की भविष्यवाणी के माध्यम से प्रशिक्षित किया जाता है, प्रतिनिधित्वात्मक क्षमताओं की सीमा के बारे में बहुत कम बताता है जो वे हासिल कर सकते हैं या नहीं हासिल कर सकते हैं। तो चलिए इस विषय को भी एक तरफ रख देते हैं. और फिर क्या? आप कृत्रिम बुद्धिमत्ता के प्रति किस प्रकार दृष्टिकोण रखते हैं?
मानव मन उबेर एलेस?
अन्य संज्ञानात्मक पूर्वाग्रहों की तरह, अवतारवाद e मानवकेंद्रितवाद वे लचीले हैं. वे हमें बचपन से ही "पकड़" लेते हैं और दुनिया को देखने और श्रेणियाँ - लेबल - रूढ़ियाँ लागू करने के हमारे पूरे तरीके को चित्रित करते हैं। मनोवैज्ञानिक इसे कहते हैं पदार्थवाद: यह सोचना कि कोई चीज़ किसी निश्चित श्रेणी से संबंधित है या नहीं, यह केवल उसकी अवलोकन योग्य विशेषताओं से निर्धारित नहीं होता है, बल्कि एक आंतरिक, अप्राप्य सार से निर्धारित होता है जो प्रत्येक वस्तु के पास होता है या नहीं होता है। उदाहरण के लिए, जो चीज़ ओक को ओक बनाती है, वह न तो इसकी पत्तियों का आकार है और न ही इसकी छाल की बनावट है, बल्कि "ओकीपन" की एक अप्राप्य संपत्ति है जो इसकी सबसे प्रमुख अवलोकन योग्य विशेषताओं में भी बदलाव के बावजूद बनी रहेगी। यदि कोई पर्यावरणीय विष ओक को असामान्य आकार की पत्तियों और असामान्य बनावट की छाल के साथ असामान्य रूप से बढ़ने का कारण बनता है, तो हम अभी भी इस अंतर्ज्ञान को साझा करते हैं कि यह, संक्षेप में, एक ओक बना हुआ है। बीमार, लेकिन फिर भी एक ओक।
अब, महत्वपूर्ण वैज्ञानिक पसंद करते हैं पॉल ब्लूम, येल मनोवैज्ञानिक, हमें बताएं कि हम इसका विस्तार करते हैं "अनिवार्यवादी" तर्क मानव मस्तिष्क के बारे में हमारी समझ... और कृत्रिम बुद्धिमत्ता सहित अन्य सभी संभावित दिमागों के लिए। और पत्थर, पेड़, प्रकृति। सच्ची बात है कि नहीं? अंत में यह इतना सर्वव्यापी रवैया है कि यह लोगों को विभाजित करता है: ऐसे लोग हैं जो सोचते हैं कि दुनिया में हर चीज में एक मन होता है (कुछ लोग "आत्मा" कहते हैं और कभी-कभी दो चीजों को भ्रमित करते हैं)। और ऐसे लोग भी हैं जो सोचते हैं कि किसी भी चीज़ में दिमाग नहीं होता, यहां तक कि इंसानों में भी नहीं (क्योंकि वे नियति, या भगवान, या किसी और चीज़ से प्रेरित होते हैं)।
यह "सभी या कुछ भी नहीं" सिद्धांत हमेशा गलत रहा है, लेकिन यह एक बार उपयोगी हो सकता है। कृत्रिम बुद्धिमत्ता के युग में, अब ऐसा नहीं है। भाषा मॉडल क्या हैं, इसके बारे में सोचने का एक बेहतर तरीका एक अलग रणनीति का पालन करना है। कौन सा? मार्गदर्शन के लिए मानव मस्तिष्क पर बहुत अधिक निर्भर हुए बिना भाषा मॉडल की संज्ञानात्मक सीमाओं की खोज करना।
चैटजीपीटी, एक बात करने वाला ऑक्टोपस
तुलनात्मक मनोविज्ञान से प्रेरणा लेते हुए, हमें भाषा के पैटर्न को उसी खुली जिज्ञासा के साथ देखना चाहिए जिसने वैज्ञानिकों को हमसे भिन्न प्राणियों की बुद्धि का पता लगाने की अनुमति दी है। ऑक्टोपस की तरह. यदि हम कृत्रिम बुद्धिमत्ता प्रणालियों की क्षमताओं के मूल्यांकन में वास्तविक प्रगति करना चाहते हैं, तो हमें अपनी पूरी ताकत से मानव मस्तिष्क के साथ तुलना का विरोध करना चाहिए। क्या हमें यह पूछना बंद कर देना चाहिए कि "इस चीज़ में दिमाग है या नहीं"? न तो कोई सत्य है और न ही दूसरा।
सबसे बढ़कर, हमें यह कल्पना करना बंद कर देना चाहिए कि यह उपकरण एक देवदूत है जो दुनिया के सभी पापों को दूर कर देगा, या कि यह हम सभी को मार डालेगा, सिर्फ इसलिए कि इसमें ऐसे प्रदर्शन हैं जो हमें अविश्वसनीय लगते हैं। चैटजीपीटी जैसे भाषा मॉडल की क्षमताओं और सीमाओं को पहचानने से हम मानवरूपता या मानवकेंद्रितवाद के जाल में फंसे बिना, उन्हें अधिक प्रभावी ढंग से और जिम्मेदारी से उपयोग करने की अनुमति देंगे। एक खुला और सचेत रवैया हमें ऐसे भविष्य में आगे बढ़ने में मदद करेगा जहां एआई तेजी से मौजूद होगा, यह सुनिश्चित करते हुए कि इसका विकास और समाज में एकीकरण गलत धारणाओं या अपेक्षाओं के बजाय तर्क, विज्ञान और नैतिकता द्वारा निर्देशित हो (और भय) अवास्तविक.