[ad_1]
घटना क्षितिज एक सीमा है जो ब्लैक होल के बाहरी किनारे को चिह्नित करती है, जिस बिंदु से कुछ भी नहीं बच सकता है – प्रकाश भी नहीं। एआई विलक्षणता का अर्थ तब है जब आर्टिफिशियल इंटेलिजेंस (एआई) मानव बुद्धिमत्ता को पार कर लेता है, जिससे तेजी से, अप्रत्याशित तकनीकी विकास होता है – इसे आर्टिफिशियल जनरल इंटेलिजेंस, या एजीआई के रूप में जाना जाता है। इसलिए, मस्क का सुझाव है कि दुनिया एजीआई के पुच्छ पर है।
उनकी पोस्ट तब आती है जब Openai, Google, Meta, Microsoft, DeepSeek और मस्क की अपनी Xai सहित बड़ी टेक कंपनियां अपने तर्क मॉडल को बढ़ावा देने के लिए पीछे की ओर झुक रही हैं, जिन्हें चेन-ऑफ-थॉट्स के रूप में भी जाना जाता है। जैसा कि चेन-ऑफ-थॉट मॉडल के विपरीत है, जो मध्यवर्ती तर्क कदम दिखाते हैं, जटिल कार्यों में पारदर्शिता और सटीकता में सुधार करते हैं, सरल एआई कार्यों में गैर-चेन-ऑफ-थॉट मॉडल आम हैं छवि मान्यता या बुनियादी चैटबॉट उत्तर की तरह।
एक उदाहरण के रूप में, XAI ने 18 फरवरी को नया GROK 3 मॉडल लॉन्च किया, जिसमें कहा जाता है कि पिछली पीढ़ी के मॉडल की तुलना में 10x अधिक गणना है और यह Openai के CHATGPT 4-O और Google के Gemini 2 Pro के साथ प्रतिस्पर्धा करेगा। ये ‘तर्क’ मॉडल ‘पूर्व-प्रशिक्षित’ लोगों से भिन्न होते हैं क्योंकि वे मानव जैसी सोच की नकल करने के लिए होते हैं, जिसका अर्थ है कि वे एक क्वेरी का जवाब देने के लिए थोड़ा अधिक समय लेते हैं, लेकिन आम तौर पर जटिल प्रश्नों का उत्तर देने के लिए अधिक उपयोगी होते हैं।
“हम XAI पर विश्वास करते हैं (ए) पूर्व-प्रशिक्षित मॉडल पर्याप्त नहीं है। यह सबसे अच्छा एआई बनाने के लिए पर्याप्त नहीं है, लेकिन सबसे अच्छा एआई को एक मानव की तरह सोचने की जरूरत है …, ” XAI टीम ने लॉन्च के दौरान कहा।
वास्तव में AGI क्या है?
एआई और जेनेरिक एआई (जेनई) पर उन लोगों ने हमें आज़माने और हमें यह समझाने के लिए कई कारणों को सूचीबद्ध करना जारी रखा है कि तकनीक समाज में मदद करेगी, लेकिन सीमाओं और वैध आरक्षणों पर आसानी से चमकती है जो स्केप्टिक्स की पेशकश करते हैं।
दूसरी ओर, जो लोग एआई और जेनई के दुरुपयोग से डरते हैं, वे केवल सीमाओं पर ध्यान केंद्रित करने के दूसरे चरम पर जाते हैं, जिसमें मतिभ्रम, डीपफेक, साहित्यिक चोरी और कॉपीराइट उल्लंघन, मानव नौकरियों के लिए जोखिम, शक्ति की गड़गड़ाहट और आरओआई की कथित कमी शामिल हैं।
यान लेकुन, फी-फाई ली (एआई के ‘गॉडमदर’ के रूप में भी संदर्भित) सहित विशेषज्ञों का एक समूह, और एंड्रयू एनजी का मानना है कि एआई कहीं भी भावुक होने के करीब नहीं है (पढ़ें: एजीआई)। वे इस बात को रेखांकित करते हैं कि एआई के लाभ जैसे कि स्मार्टफोन, ड्राइवरलेस वाहन, कम लागत वाले उपग्रह, चैटबॉट्स, और बाढ़ के पूर्वानुमान और चेतावनी प्रदान करते हैं, जो इसके कथित जोखिमों को दूर करते हैं।
एक अन्य एआई विशेषज्ञ, मुस्तफा सुलेमैन, जो माइक्रोसॉफ्ट एआई (पहले के सह-संस्थापक और इन्फ्लेक्शन एआई के सह-संस्थापक और सीईओ, और अल्फाबेट यूनिट डीपमाइंड के सह-संस्थापक) के सीईओ हैं, ने कृत्रिम सक्षम खुफिया (एसीआई) का उपयोग करके एआई मॉडल की स्वतंत्र रूप से प्रदर्शन करने की क्षमता का उपयोग किया।
उन्हें पता होना चाहिए कि वे किस बारे में बात कर रहे हैं। लेकुन (अब मेटा में मुख्य वैज्ञानिक), जियोफेरी हिंटन और योशुआ बेंगियो को 2018 ट्यूरिंग अवार्ड मिला, जिसे ‘नोबेल पुरस्कार ऑफ कम्प्यूटिंग’ भी कहा जाता है। और तीनों को ‘एआई के गॉडफादर’ के रूप में संदर्भित किया जाता है।
ली गूगल क्लाउड में एआई के प्रमुख थे और एनजी ने Google ब्रेन का नेतृत्व किया और Coursera जैसी सह-संस्थापक कंपनियों और deeplearning.ai शुरू करने से पहले Baidu में मुख्य वैज्ञानिक थे।
हालांकि, हिंटन और बेंगियो सहित एआई विशेषज्ञों और मस्क और मसायोशी बेटे, सॉफ्टबैंक के सीईओ की पसंद, जोर देकर कहते हैं कि जीनई मॉडल की अभूतपूर्व वृद्धि इंगित करती है कि मशीनें जल्द ही सोचेंगी और एजीआई के साथ मनुष्यों की तरह काम करेंगी।
डर यह है कि अगर अनियमित, एजीआई मशीनों को स्वचालित रूप से स्काईनेट जैसी मशीनों में विकसित करने में मदद कर सकता है जो एआई विलक्षणता या एजीआई प्राप्त करते हैं (कुछ भी कृत्रिम सुपर इंटेलिजेंस, या एएसआई शब्द का उपयोग करते हैं), और हमें बाहर या यहां तक कि हमारे खिलाफ युद्ध करते हैं, जैसा कि विज्ञान-फाई फिल्मों में दिखाया गया है। मैं, रोबोट और निर्माता। बेटे ने कहा कि एएसआई को 20 साल में महसूस किया जाएगा और मानव बुद्धिमत्ता को 10,000 के कारक से पार कर जाएगा।
एआई एजेंटिक सिस्टम चिंता में जोड़ रहे हैं क्योंकि ये मॉडल स्वायत्त निर्णय लेने और विशिष्ट लक्ष्यों को प्राप्त करने के लिए कार्रवाई करने में सक्षम हैं, जिसका अर्थ है कि वे मानव हस्तक्षेप के बिना काम कर सकते हैं। वे आमतौर पर स्वायत्तता, अनुकूलनशीलता, निर्णय लेने और सीखने जैसी प्रमुख विशेषताओं का प्रदर्शन करते हैं।
उदाहरण के लिए, Google ने हाल ही में मिथुन 2.0 -एक साल शुरू किया था, जब उसने मिथुन 1.0 को पेश किया।
“हमारे अगले युग के मॉडल (हैं) इस नए एजेंट के लिए निर्मित हैं,” सीईओ सुंदर पिचाई ने हाल ही में एक ब्लॉग में कहा।
हिंटन ने बीबीसी रेडियो 4 पर एक हालिया साक्षात्कार में दोहराया आज कार्यक्रम कि एआई की संभावना अगले तीन दशकों के भीतर मानव विलुप्त होने की संभावना बढ़कर 10-20%हो गई है। उनके अनुसार, मानव अत्यधिक शक्तिशाली एआई प्रणालियों की बुद्धिमत्ता की तुलना में टॉडलर्स की तरह होगा।
“मुझे यह सोचना पसंद है: अपने आप को और एक तीन साल के बच्चे की कल्पना करें। हम तीन साल के बच्चे होंगे, ” उसने कहा। हिंटन ने मई 2023 में Google में अपनी नौकरी छोड़ दी, ताकि दुनिया को AI प्रौद्योगिकियों के खतरों के बारे में चेतावनी दी जा सके।
10 कार्य
कुछ विशेषज्ञों ने एजीआई के आगमन पर भी पैसा दांव लगाया है। उदाहरण के लिए, 30 दिसंबर के एक समाचार पत्र में शीर्षक: ‘2027 के अंत में AI कहाँ होगा? एक दांव ‘, गैरी मार्कस -लेखक, वैज्ञानिक, और उल्लेख किया कि एआई सेक्टिक- और माइल्स ब्रुन्डेज- एक स्वतंत्र एआई नीति शोधकर्ता, जो हाल ही में ओपनई को छोड़ देता है और एआई की प्रगति पर तेजी है – “… अगर एआई सिस्टम मौजूद है, तो 2027 के अंत तक 10 कार्यों के लिए, जो कि जज के पैनल के लिए निर्धारित किया गया है, गैरी के पैनल, गैरी के पैनल से। 8, मील गैरी की पसंद के एक चैरिटी के लिए $ 20,000 का दान करेगा … “
10 कार्यों में नई फिल्मों और उपन्यासों को गहराई से समझने, उन्हें बारीकियों के साथ संक्षेप में, और कथानक, पात्रों और संघर्षों पर विस्तृत प्रश्नों के उत्तर देने जैसे रचनात्मक, विश्लेषणात्मक और तकनीकी कार्यों की एक श्रृंखला में महारत हासिल करना शामिल है। कार्यों में सटीक जीवनी, प्रेरक कानूनी ब्रीफ, और बड़े पैमाने पर, बग-मुक्त कोड, सभी त्रुटियों या निर्माण पर निर्भरता के बिना लिखना शामिल है।
यह शर्त वीडियो गेम में महारत हासिल करने, इन-गेम पहेली को हल करने और स्वतंत्र रूप से पुलित्जर पुरस्कार-योग्य पुस्तकों, ऑस्कर-कैलिब्रे स्क्रीनप्ले और प्रतिमान-शिफ्टिंग वैज्ञानिक खोजों को तैयार करने के लिए एआई मॉडल तक फैली हुई है। अंत में, इसमें सत्यापन के लिए प्रतीकात्मक रूपों में जटिल गणितीय प्रमाणों का अनुवाद करना शामिल है, न्यूनतम मानव इनपुट के साथ विविध क्षेत्रों में उत्कृष्टता प्राप्त करने के लिए एक परिवर्तनकारी क्षमता का प्रदर्शन करना शामिल है।
मायावी सहानुभूति, भावनात्मक भागफल
तथ्य यह है कि अधिकांश कंपनियां पूर्ण-पैमाने पर उत्पादन कार्य के लिए इसका उपयोग करने से पहले जीनई टूल्स और एआई एजेंटों का परीक्षण कर रही हैं, जैसे कि मतिभ्रम (जब ये मॉडल आत्मविश्वास से गलत जानकारी का उत्पादन करते हैं), पूर्वाग्रह, कॉपीराइट मुद्दे, बौद्धिक संपदा और ट्रेडमार्क उल्लंघन, खराब डेटा गुणवत्ता, पावर गुज़लिंग, और अधिक महत्वपूर्ण रूप से, निवेश (आरओआई) पर स्पष्ट रिटर्न की कमी है।
तथ्य यह है कि एआई मॉडल हर गुजरते दिन के साथ अधिक कुशल हो जाते हैं, हम में से कई आश्चर्य करते हैं कि जब एआई मनुष्यों को पार कर जाएगा। कई क्षेत्रों में, एआई मॉडल पहले से ही ऐसा कर चुके हैं, लेकिन वे निश्चित रूप से मनुष्यों की तरह नहीं सोच सकते हैं या नहीं कर सकते हैं।
शायद उन्हें ऐसा करने की आवश्यकता नहीं होगी या नहीं किया जा सकता है क्योंकि मशीनों को “विकसित” और “सोचने” की संभावना है। एजीआई मॉडल की क्षमताओं और व्यवहार को वर्गीकृत करने के लिए डीपमाइंड का प्रस्तावित ढांचाभी, नोट करता है कि वर्तमान एआई मॉडल कारण नहीं कर सकते हैं। लेकिन यह स्वीकार करता है कि एक एआई मॉडल के “उभरते” गुण इसे तर्क जैसी क्षमताओं को दे सकते हैं, जो इन मॉडलों के डेवलपर्स द्वारा स्पष्ट रूप से अनुमानित नहीं हैं।
उस ने कहा, नीति निर्माता एजीआई पर विकसित होने के लिए आम सहमति की प्रतीक्षा करने के लिए बीमार कर सकते हैं। कहावत, ‘सॉरी से सुरक्षित होना बेहतर है’, इसे उपयुक्त रूप से पकड़ लेता है।
यह एक कारण है कि टकसाल अक्टूबर 2023 में तर्क दिया कि ‘नीति को एजीआई पर आम सहमति की प्रतीक्षा करने की आवश्यकता नहीं है‘इन प्रौद्योगिकियों के चारों ओर रेलिंग करने के लिए। इस बीच, एजीआई बहस में जल्दी में मरने की संभावना नहीं है, जिसमें भावनाएं दोनों तरफ उच्च चल रही हैं।
[ad_2]
Source link