अच्छा और बुराः भारत और ‘आर्टिफिशियल इंटेलिजेंस’

भारत को एआई के प्रतिकूल प्रभावों से बचते हुए इसके फायदों का इस्तेमाल करना चाहिए

June 03, 2023 10:56 am | Updated 02:18 pm IST

जेनरेटिव कृत्रिम बुद्धिमता (आर्टिफिशियल इंटेलिजेंस, एआई) एक ऐसी एआई है जो नया डाटा तैयार कर सकती है। आज दुनिया में जेनरेटिव एआई के बहुत से उदाहरण मौजूद हैं, जिनका सबसे आम इस्तेमाल उपभोक्ता के आग्रह पर विषय, छवि और कोड मुहैया करने के लिए किया जाता है। हालांकि, ये इससे भी आगे बहुत कुछ अधिक करने में सक्षम हैं। इनका व्यापक अनुकूलन इनकी क्षमता को वाकई शानदार ढंग से बढ़ाता है, जो पहले तो चौंकता है, फिर चिंता में डालता है। ओपनएआई का चैटजीपीटी नामक चैटबॉट इंसानी बुद्धिमत्ता की बखूबी नकल कर लेता है। आज यह जेनरेटिव एआई की क्षमताओं का पर्याय जैसा बन गया है। बीते कुछ सालों में, बहुत बड़े डाटासेट्स पर काम करने के लिए प्रशिक्षित और पर्याप्त संगणन क्षमता तक पहुंच वाले, न्यूरल नेटवर्क-समर्थित एआई मॉडलों को अच्छे कामों के लिए इस्तेमाल किया गया है, जैसे कि नये एंटीबायोटिक व मिश्र-धातुएं ढूंढ़ने के लिए, बुद्धिमत्तापूर्ण मनोरंजन व सांस्कृतिक गतिविधियों के लिए, और कई सामान्य से कामों के लिए। लेकिन, इसने सबसे ज्यादा ध्यान झूठा डाटा गढ़ने की अपनी क्षमता से खींचा है। ईमानदारी से सच्चाई दिखाने वाले डाटा और एआई का इस्तेमाल कर बेईमान लोगों द्वारा बनाए गए सच जैसे दिखने वाले डाटा में विश्वसनीय रूप से फर्क कर पाने में अब दुनिया सक्षम नहीं रह गयी है। इसने और सामने आई दूसरी चीजों ने एआई के अग्रदूतों के एक प्रमुख समूह को एक वाक्य का बयान (जो आगाह करता है) गढ़ने के लिए प्रेरित किया: ‘महामारियों और परमाणु युद्ध जैसे दूसरे समाज-स्तरीय जोखिमों के साथ-साथ एआई से अस्तित्व मिट जाने के जोखिम को कम करना वैश्विक प्राथमिकता होनी चाहिए। ’बेईमान लोगों के हाथों में एआई का होना कई खतरों में से एक है, लेकिन मानव समाज की जटिलता स्वीकार करने के लिहाज से यह बयान ज्यादा ही सरल है।

दूसरे बयानों में जिक्र की गईं कुछ विशिष्ट चिंताएं गंभीरता से लेने लायक हैं: एआई मॉडलों की आंतरिक कार्यप्रणाली की रहस्यमयता, कॉपीराइट वाले डाटा का उनके द्वारा इस्तेमाल, मानवीय गरिमा और निजता का सम्मान, और झूठी गढ़ी गई सूचनाओं से बचाव। आज जो मॉडल विकसित और इस्तेमाल किये जा रहे हैं, वे इन चिंताओं पर ध्यान देने के लिए बाध्य नहीं हैं। इसके साथ ही, यह समझने का कोई जरिया नहीं कि वे क्या जोखिम पेश कर रहे हैं। लिहाजा,

एक ऐसे बिंदु पर भी जब एआई मॉडलों को चलाने के लिए जरूरी संगणन संसाधन (कंप्यूटेशन रिसोर्सेज) उपभोक्ता इलेक्ट्रॉनिक उपकरणों में उपलब्ध हैं, दुनिया को कम-से-कम ऐसी अनवरत नीतियों की जरूरत होगी जो खतरनाक उद्यमों पर रोक लगाने के लिए लोकतांत्रिक संस्थानों के पास शक्ति बनाए रखें। इस समय, भारत सरकार को सक्रियतापूर्वक एक ओपन सोर्स एआई रिस्क प्रोफाइल जारी करना चाहिए और उसे बनाये रखना चाहिए। संभावित उच्च-जोखिम वाले एआई मॉडलों का परीक्षण करने के लिए अनुसंधान एवं विकास (आरएंडडी) संबंधी नियंत्रित परिवेश बनाने चाहिए। औचित्य समझाए जा सकने लायक एआई के विकास को बढ़ावा देना चाहिए। किन हालात में हस्तक्षेप किया जाएगा, यह परिभाषित किया जाना चाहिए। इसके अलावा, सरकार को सतर्क निगाह रखनी चाहिए। कुछ न करना कोई विकल्प नहीं है : न सिर्फ इसके प्रतिकूल नतीजे हो सकते हैं, बल्कि ‘भले के लिए एआई का इस्तेमाल करने’ में भारत पीछे छूट सकता है।

Top News Today

Comments

Comments have to be in English, and in full sentences. They cannot be abusive or personal. Please abide by our community guidelines for posting your comments.

We have migrated to a new commenting platform. If you are already a registered user of The Hindu and logged in, you may continue to engage with our articles. If you do not have an account please register and login to post comments. Users can access their older comments by logging into their accounts on Vuukle.