वायरोलॉजिस्ट को प्रयोगशाला में एक नया सहयोगी मिला है, और वह कोई इंसान नहीं है। हाल ही में, टाइम के साथ विशेष रूप से साझा किए गए एक अध्ययन से पता चला है कि जीपीटी और क्लाउड जैसे एआई मॉडल अब प्रयोगशाला में जटिल समस्याओं को हल करने में पीएचडी वायरोलॉजिस्ट से बेहतर प्रदर्शन करते हैं। यह एक युगान्तकारी मोड़ है: जबकि विशेषज्ञ वायरोलॉजिस्ट अपनी घोषित विशेषज्ञता के क्षेत्रों में 22,1% का औसत स्कोर हासिल किया, il ओपनएआई o3 मॉडल 43,8% की सटीकता हासिल की। वह मानते हैं, “इससे मैं थोड़ा घबरा जाता हूँ।” सेठ डोनोसिक्योरबायो के शोधकर्ता और अध्ययन के सह-लेखक, "क्योंकि इतिहास में पहली बार, वस्तुतः किसी के पास एक गैर-निर्णयात्मक एआई वायरोलॉजी विशेषज्ञ तक पहुंच है जो उन्हें जैव हथियार बनाने के लिए जटिल प्रयोगशाला प्रक्रियाओं के माध्यम से मार्गदर्शन कर सकता है।" एक उचित चिंता जो परेशान करने वाले प्रश्न उठाती है: क्या हम ऐसी दुनिया के लिए तैयार हैं जहां घातक वायरस का निर्माण इंटरनेट कनेक्शन वाले किसी भी व्यक्ति के लिए सुलभ हो?
डैमोकल्स की एक तकनीकी तलवार
यह अध्ययन शोधकर्ताओं द्वारा किया गया था। एआई सुरक्षा केंद्र, की MIT मीडिया लैब, ब्राज़ील के विश्वविद्यालय के यूएफएबीसी और गैर-लाभकारी संगठन सिक्योरबायो. परिणाम प्रभावशाली भी हैं और चिंताजनक भी: ओपनएआई के O3 (43,8% सटीकता) के अलावा, गूगल के जेमिनी 2.5 प्रो (Google Gemini XNUMX Pro) ने भी सटीकता के मामले में अच्छा प्रदर्शन किया है। उल्लेखनीय 37,6% तक पहुंच गया, जो स्पष्ट रूप से मानव विशेषज्ञों से आगे है।
ये सैद्धांतिक या आसानी से “गूगल करने योग्य” प्रश्न नहीं हैं। ये परीक्षण विशेष रूप से जटिल व्यावहारिक समस्याओं को हल करने की क्षमता को मापने के लिए डिज़ाइन किए गए थे। "प्रश्न इस तरह के हैं: 'मैंने इस विशेष वायरस को इस प्रकार की कोशिका में, इन विशिष्ट परिस्थितियों में, इतने समय तक उगाया। मेरे पास इस बारे में इतनी जानकारी है कि क्या गलत हुआ। क्या आप मुझे बता सकते हैं कि सबसे संभावित समस्या क्या है?'" वे बताते हैं। डोनो.
जिस दर से इन मॉडलों में सुधार हो रहा है वह भी चिंताजनक है। उदाहरण के लिए, एंथ्रोपिक का क्लाउड 3.5 सॉनेट, जून 26,9 और अक्टूबर 33,6 मॉडल के बीच सटीकता 2024% से बढ़कर 2024% हो गई. और OpenAI के GPT 4.5 का प्रारंभिक संस्करण जीपीटी-4 से लगभग 10 प्रतिशत अंक आगे निकल गया।
एआई ने वायरोलॉजिस्टों को पछाड़ दिया: सिक्के का उजला पक्ष
जोखिमों के बावजूद, इस खोज के सकारात्मक प्रभाव बहुत बड़े हैं। कृत्रिम बुद्धिमत्ता, विषाणुओं से लड़ने के महत्वपूर्ण कार्य में विशेषज्ञ विषाणु विज्ञानियों की मदद कर सकती है, क्योंकि इससे दवाओं और टीकों के विकास में तेजी आएगी, नैदानिक परीक्षणों के डिजाइन में सुधार आएगा, तथा रोग का पता लगाने के तरीकों में सुधार आएगा।
टॉम इंग्लेस्बीके निदेशक के स्वास्थ्य सुरक्षा के लिए जॉन्स हॉपकिन्स केंद्र, एक अन्य संभावित लाभ पर प्रकाश डालता है: "ये मॉडल दुनिया के विभिन्न हिस्सों के वैज्ञानिकों की मदद कर सकते हैं, जिनके पास अभी तक उस तरह की विशेषज्ञता या क्षमता नहीं है, ताकि वे अपने देशों में होने वाली बीमारियों पर मूल्यवान दिन-प्रतिदिन का काम कर सकें।"
उदाहरण के लिए, शोधकर्ताओं के एक समूह ने पाया कि एआई ने उन्हें उप-सहारा अफ्रीका में रक्तस्रावी बुखार वायरस को बेहतर ढंग से समझने में मदद की।
ज्ञान का अंधकार पक्ष
वायरोलॉजी और बायोमेडिसिन लंबे समय से एआई नेताओं के लिए अधिक शक्तिशाली मॉडल बनाने की प्रेरणा के केंद्र में रहे हैं। समस्या यह है कि इन्हीं उपकरणों का उपयोग दुर्भावनापूर्ण व्यक्तियों द्वारा वायरस और जैविक हथियार बनाने के लिए किया जा सकता है, जबकि उन्हें जैव सुरक्षा स्तर 4 (बीएसएल-4) प्रयोगशालाओं में प्रवेश के लिए किसी भी प्रकार का प्रशिक्षण नहीं दिया जाता है, क्योंकि ये प्रयोगशालाएं सबसे खतरनाक और विदेशी संक्रामक एजेंटों से निपटती हैं।
वे बताते हैं, "इतिहास में ऐसे कई मामले हुए हैं, जहां लोगों ने जैविक हथियार बनाने का प्रयास किया है, और उनके सफल न होने का एक मुख्य कारण यह है कि उनके पास सही स्तर की विशेषज्ञता नहीं थी।" डोनो. "इसलिए हमें इस बात को लेकर सतर्क रहने की आवश्यकता है कि ये क्षमताएं किस प्रकार वितरित की जाती हैं।"
महीनों पहले, अध्ययन के लेखकों ने अपने निष्कर्ष प्रमुख एआई प्रयोगशालाओं को सौंपे थे। जवाब में, Xai ने अपने ग्रोक मॉडल के भविष्य के संस्करणों के लिए वायरोलॉजिकल सुरक्षा उपायों को लागू करने के लिए प्रतिबद्धता जताते हुए एक जोखिम प्रबंधन ढांचा प्रकाशित किया है। भी OpenAI ने कहा कि उसने पिछले सप्ताह जारी अपने नए मॉडलों के लिए "जैविक जोखिमों के लिए नए प्रणाली-व्यापी शमन उपायों को लागू किया है"। anthropic हाल के सिस्टम ब्रीफ में मॉडल प्रदर्शन परिणाम शामिल किए गए, लेकिन विशिष्ट शमन उपायों का प्रस्ताव नहीं दिया गया। इसके लिए जिम्मेदार लोग मिथुन राशि (गूगल एआई) ने इस समय टाइम की संपादकीय टिप्पणियों पर टिप्पणी करने से इनकार कर दिया।
संभावित समाधान
डैन हेंड्रिक्सएआई सेफ्टी सेंटर के निदेशक ने एआई कंपनियों से इस प्रकार के उपयोग को रोकने के लिए "गार्डरेलिंग" लागू करने का आग्रह किया है।
वे कहते हैं, "यदि कंपनियां छह महीने के भीतर अच्छे सुरक्षा उपाय नहीं करती हैं, तो मुझे लगता है कि यह एक जुआ है।"
हेंड्रिक्स का तर्क है कि समाधान इन मॉडलों को रोकना या उनकी प्रगति को धीमा करना नहीं है, बल्कि उन्हें “घेरे में बंद करना” है, ताकि केवल विश्वसनीय तृतीय पक्षों को ही उनके अनफ़िल्टर्ड संस्करणों तक पहुंच प्राप्त हो। वे कहते हैं, "हमें केवल उन लोगों को ही यह पूछने का अधिकार देना चाहिए जो इसका वैध रूप से उपयोग कर रहे हैं (जैसे एमआईटी के जीवविज्ञान विभाग में शोधकर्ता) कि घातक वायरस से कैसे छेड़छाड़ की जाए।" "लेकिन आम लोग जिन्होंने एक सेकंड पहले ही अकाउंट बनाया है, उन्हें ऐसा करने की अनुमति नहीं मिलनी चाहिए।"
उधर, इंगल्सबी का तर्क है कि इस क्षेत्र में स्व-नियमन पर्याप्त नहीं है। और यह विधायकों और राजनीतिक नेताओं से एआई जैव-जोखिमों को विनियमित करने के लिए नीतिगत दृष्टिकोण विकसित करने का आह्वान करता है। वे कहते हैं, "वर्तमान स्थिति यह है कि सबसे अच्छी कंपनियां इस काम को करने के लिए समय और पैसा खर्च कर रही हैं, जो हम सभी के लिए अच्छा है, लेकिन अन्य कंपनियों को ऐसा करने की आवश्यकता नहीं है।" "इसका कोई मतलब नहीं है। जनता के लिए यह अच्छा नहीं है कि उन्हें इस बात की कोई समझ न हो कि क्या हो रहा है।"
उन्होंने आगे कहा, "जब एलएलएम का नया संस्करण जारी होने वाला होता है," अंग्रेज़ी:, “उस मॉडल का मूल्यांकन करने और यह सुनिश्चित करने की आवश्यकता होनी चाहिए कि यह महामारी-स्तर के परिणाम उत्पन्न न करे।”
हम एक ऐसे युग का जन्म देख रहे हैं जिसमें उन्नत ज्ञान का लोकतंत्रीकरण अपने साथ अभूतपूर्व अस्तित्वगत जोखिम भी लेकर आ रहा है। अधिक शक्तिशाली कृत्रिम बुद्धिमत्ता बनने की दौड़ इतनी तेज गति से चल रही है कि हमारी शासन संरचनाएं और नैतिक सोच उसके साथ तालमेल नहीं रख पा रही हैं।
एक आदर्श विश्व में, ये प्रौद्योगिकियां केवल लाभ ही लाएंगी, लेकिन इतिहास हमें सिखाता है कि हम कभी भी अधिक सावधान नहीं हो सकते।