जेनरेटिव कृत्रिम बुद्धिमता (आर्टिफिशियल इंटेलिजेंस, एआई) एक ऐसी एआई है जो नया डाटा तैयार कर सकती है। आज दुनिया में जेनरेटिव एआई के बहुत से उदाहरण मौजूद हैं, जिनका सबसे आम इस्तेमाल उपभोक्ता के आग्रह पर विषय, छवि और कोड मुहैया करने के लिए किया जाता है। हालांकि, ये इससे भी आगे बहुत कुछ अधिक करने में सक्षम हैं। इनका व्यापक अनुकूलन इनकी क्षमता को वाकई शानदार ढंग से बढ़ाता है, जो पहले तो चौंकता है, फिर चिंता में डालता है। ओपनएआई का चैटजीपीटी नामक चैटबॉट इंसानी बुद्धिमत्ता की बखूबी नकल कर लेता है। आज यह जेनरेटिव एआई की क्षमताओं का पर्याय जैसा बन गया है। बीते कुछ सालों में, बहुत बड़े डाटासेट्स पर काम करने के लिए प्रशिक्षित और पर्याप्त संगणन क्षमता तक पहुंच वाले, न्यूरल नेटवर्क-समर्थित एआई मॉडलों को अच्छे कामों के लिए इस्तेमाल किया गया है, जैसे कि नये एंटीबायोटिक व मिश्र-धातुएं ढूंढ़ने के लिए, बुद्धिमत्तापूर्ण मनोरंजन व सांस्कृतिक गतिविधियों के लिए, और कई सामान्य से कामों के लिए। लेकिन, इसने सबसे ज्यादा ध्यान झूठा डाटा गढ़ने की अपनी क्षमता से खींचा है। ईमानदारी से सच्चाई दिखाने वाले डाटा और एआई का इस्तेमाल कर बेईमान लोगों द्वारा बनाए गए सच जैसे दिखने वाले डाटा में विश्वसनीय रूप से फर्क कर पाने में अब दुनिया सक्षम नहीं रह गयी है। इसने और सामने आई दूसरी चीजों ने एआई के अग्रदूतों के एक प्रमुख समूह को एक वाक्य का बयान (जो आगाह करता है) गढ़ने के लिए प्रेरित किया: ‘महामारियों और परमाणु युद्ध जैसे दूसरे समाज-स्तरीय जोखिमों के साथ-साथ एआई से अस्तित्व मिट जाने के जोखिम को कम करना वैश्विक प्राथमिकता होनी चाहिए। ’बेईमान लोगों के हाथों में एआई का होना कई खतरों में से एक है, लेकिन मानव समाज की जटिलता स्वीकार करने के लिहाज से यह बयान ज्यादा ही सरल है।
दूसरे बयानों में जिक्र की गईं कुछ विशिष्ट चिंताएं गंभीरता से लेने लायक हैं: एआई मॉडलों की आंतरिक कार्यप्रणाली की रहस्यमयता, कॉपीराइट वाले डाटा का उनके द्वारा इस्तेमाल, मानवीय गरिमा और निजता का सम्मान, और झूठी गढ़ी गई सूचनाओं से बचाव। आज जो मॉडल विकसित और इस्तेमाल किये जा रहे हैं, वे इन चिंताओं पर ध्यान देने के लिए बाध्य नहीं हैं। इसके साथ ही, यह समझने का कोई जरिया नहीं कि वे क्या जोखिम पेश कर रहे हैं। लिहाजा,
एक ऐसे बिंदु पर भी जब एआई मॉडलों को चलाने के लिए जरूरी संगणन संसाधन (कंप्यूटेशन रिसोर्सेज) उपभोक्ता इलेक्ट्रॉनिक उपकरणों में उपलब्ध हैं, दुनिया को कम-से-कम ऐसी अनवरत नीतियों की जरूरत होगी जो खतरनाक उद्यमों पर रोक लगाने के लिए लोकतांत्रिक संस्थानों के पास शक्ति बनाए रखें। इस समय, भारत सरकार को सक्रियतापूर्वक एक ओपन सोर्स एआई रिस्क प्रोफाइल जारी करना चाहिए और उसे बनाये रखना चाहिए। संभावित उच्च-जोखिम वाले एआई मॉडलों का परीक्षण करने के लिए अनुसंधान एवं विकास (आरएंडडी) संबंधी नियंत्रित परिवेश बनाने चाहिए। औचित्य समझाए जा सकने लायक एआई के विकास को बढ़ावा देना चाहिए। किन हालात में हस्तक्षेप किया जाएगा, यह परिभाषित किया जाना चाहिए। इसके अलावा, सरकार को सतर्क निगाह रखनी चाहिए। कुछ न करना कोई विकल्प नहीं है : न सिर्फ इसके प्रतिकूल नतीजे हो सकते हैं, बल्कि ‘भले के लिए एआई का इस्तेमाल करने’ में भारत पीछे छूट सकता है।
COMMents
SHARE