AI (Artificial Intelligence) की दुनिया में हलचल मच गई है! पूर्व OpenAI रिसर्चर (Former OpenAI Researcher) Steven Adler ने एक बड़ा खुलासा करते हुए कहा है कि AGI (Artificial General Intelligence) की रेस एक खतरनाक जुआ बन चुकी है। उनका कहना है कि अगर इसे सही से कंट्रोल (Control) नहीं किया गया, तो यह पूरी मानवता के लिए बड़ा खतरा बन सकता है। AI की तेजी से बढ़ती स्पीड को लेकर Steven Adler ने गंभीर चिंता जताई है, और उनकी यह चेतावनी पूरी दुनिया के लिए एक अलार्म बेल की तरह है।
AI की स्पीड से डरे Ex-OpenAI रिसर्चर!
Steven Adler, जिन्होंने चार साल तक OpenAI में AI सेफ्टी (AI Safety) पर काम किया, उन्होंने X (Twitter) पर पोस्ट कर कहा:
“मुझे सच में डर लग रहा है कि AI डेवलपमेंट (AI Development) की रफ्तार इतनी तेज हो गई है कि इंसान इसके लिए तैयार ही नहीं है। क्या हम वाकई भविष्य तक पहुंच भी पाएंगे?”
उनकी यह बात AI के तेजी से बढ़ते विकास को लेकर है, जिसमें इंसानों की तैयारी और नियंत्रण की कमी एक बड़ी समस्या बनती जा रही है। AI की तकनीक इतनी तेजी से आगे बढ़ रही है कि इंसानों के पास इसे समझने और नियंत्रित करने का समय ही नहीं बच रहा है।
AGI की रेस – ‘खतरनाक जुआ’
Adler ने AGI रेस को लेकर गंभीर चिंता जताई। उन्होंने कहा कि आज कोई भी लैब AI Alignment का सॉल्यूशन (Solution) नहीं निकाल पाई है और अगर इस स्पीड से यह रेस जारी रही, तो हम कभी भी इसका हल नहीं निकाल पाएंगे।
“आज किसी के पास AGI को सेफ (Safe) बनाने का कोई तरीका नहीं है। और जितनी तेज़ी से ये रेस चल रही है, उतनी ही कम उम्मीद है कि कोई समय रहते इसका हल ढूंढ सके।”
AGI, यानी Artificial General Intelligence, एक ऐसी AI है जो इंसानों की तरह सोचने और समझने की क्षमता रखती है। लेकिन अगर इसे सही से नियंत्रित नहीं किया गया, तो यह इंसानों के लिए बड़ा खतरा बन सकती है। Adler का मानना है कि AGI को सुरक्षित बनाने के लिए अभी तक कोई ठोस समाधान नहीं है, और इसकी रेस इसे और भी खतरनाक बना रही है।
AI लैब्स पर तंज – “कोई भी नैतिकता नहीं देख रहा”
Adler ने AI लैब्स को लेकर भी सवाल उठाए। उनका कहना है कि भले ही कुछ कंपनियां जिम्मेदारी से AGI डेवलप करना चाहती हों, लेकिन अन्य कंपनियां आगे निकलने के लिए शॉर्टकट (Shortcut) ले रही हैं, जिससे हालात और बिगड़ सकते हैं।
“अगर कोई लैब AGI को सुरक्षित बनाना भी चाहे, तो दूसरी कंपनियां ज्यादा तेजी से आगे बढ़ने के लिए नियमों की अनदेखी कर रही हैं।”
उन्होंने AI लैब्स पर यह आरोप लगाया कि वे सिर्फ तकनीकी प्रगति के पीछे भाग रही हैं, और नैतिकता और सुरक्षा को नजरअंदाज कर रही हैं। यह स्थिति भविष्य में बड़े संकट को जन्म दे सकती है।
Steven Adler ने छोड़ा OpenAI, लेकिन ब्रेक के बाद करेंगे वापसी!
Adler फिलहाल ब्रेक (Break) पर हैं, लेकिन वह AI सेफ्टी (AI Safety), कंट्रोल मेथड्स (Control Methods) और स्कीमिंग डिटेक्शन (Scheming Detection) पर काम करने के लिए वापस आने वाले हैं। उन्होंने कहा कि जो लोग AI सुरक्षा और नीति-निर्माण में रुचि रखते हैं, वे उनसे संपर्क कर सकते हैं।
उनकी यह वापसी AI सेफ्टी के क्षेत्र में एक बड़ा कदम हो सकती है, क्योंकि उनका अनुभव और ज्ञान इस क्षेत्र में बहुत महत्वपूर्ण है।
OpenAI को तगड़ा झटका – DeepSeek ने मारी बाज़ी!
इस बीच, OpenAI को Apple के फ्री ऐप स्टोर (Free App Store) में झटका लगा है। चीन की DeepSeek कंपनी अब मार्केट में नंबर 1 पर पहुंच गई है, जिससे OpenAI को अपनी टॉप पोजीशन (Top Position) गंवानी पड़ी है। यह घटना AI इंडस्ट्री में एक बड़ा बदलाव ला सकती है, क्योंकि DeepSeek की सफलता OpenAI के लिए एक चुनौती बन गई है।
क्या AI इंसानों के लिए बड़ा खतरा बन रहा है?
Steven Adler जैसे एक्सपर्ट्स की चेतावनी को हल्के में नहीं लिया जा सकता। AGI की रेस (AGI Race) में अगर कंपनियां सिर्फ पैसे और ताकत के पीछे भागती रहीं, तो इंसानियत पर भारी संकट आ सकता है। क्या AI को संभालना मुमकिन होगा या यह हमारा भविष्य निगल जाएगा?
AI के विकास को लेकर यह सवाल बहुत महत्वपूर्ण है। क्या हमें AI को कंट्रोल करना चाहिए या इसे अपनी स्पीड से बढ़ने देना चाहिए? इस पर आपकी क्या राय है? कमेंट में अपनी राय दें और इस महत्वपूर्ण मुद्दे पर चर्चा में शामिल हों!
ये खबर आप THE TIMES OF JAMBUDWEEP पर पढ़ रहे हैं । टेक्नोलॉजी की दुनिया के ताजा खबरों एवं विश्लेषण के लिए हमारे वेबसाइट के टेक्नोलॉजी सेक्शन पर रोज विजिट करें तथा हमे सब्सक्राइब करें ।