All for Joomla All for Webmasters
टेक

ChatGPT की तकनीक सुरक्षित, लेकिन इस पर पूरी तरह निर्भर होना गलत: OpenAI CEO Sam Altman

OpenAI CEO OpenAI के सीईओ ने पीएम मोदी से मुलाकात की। उन्होंने बताया कि हम एआई जैसे तकनीक पर पूरी तरह से भरोसा नहीं कर सकते हैं। आइए जानते हैं कि सीईओ ने एआई को लेकर और क्या कहा है?

नई दिल्ली, बिजनेस डेस्क। OpenAI के सीईओ सैम अल्टमैन ने गुरुवार को कहा कि कंपनी को केवल एआई के भरोसे नहीं छोड़ना चाहिए। इंडस्ट्री में सेल्फ रेगुलेशन होना बहुत जरूरी है। इंटस्ट्री को एआई के भरोसे छोड़ने पर दिक्कत हो सकती है।

अल्टमैन ने बताया कि उन्होंने एआई को लेकर भारत के प्रधानमंत्री नरेंद्र मोदी से मुलाकात की है। उनके साथ भारत में एआई को अपनाने और रेगुलेशन की आवश्यकता पर चर्चा हुई।

ये भी पढ़ें– Sonu Sood: ओडिशा ट्रेन हादसे के पीड़ितों की मदद के लिए आगे आए सोनू सूद, शेयर किया हेल्पलाइन नंबर

इंद्रप्रस्थ सूचना प्रौद्योगिकी संस्थान में फायरसाइड चैट के दौरान सवाल के जवाब सेशन में उन्होंने कहा कि OpenAI खुद को सेल्फ रेगुलेट कर देता है। चैट-जीपीटी सुरक्षित है। इसे और बेहतर बनाने के लिए 8 महीने का समय चाहिए। 8 महीने के बाद ही यह सुनिश्चित हो सकता है कि ये कितना सही है।

चैट-जीपीटी की सुरक्षा को लेकर अल्टमैन ने क्या कहा

OpenAI ने कई बाहरी संगठन के साथ काम किया है। इसका उद्देश्य यह था कि चैट-जीपीटी की लिमिट कितनी होनी चाहिए। हमें एक संगठन के जैसा काम नहीं करना चाहिए, बल्कि हमें मिल-जुलकर काम करना चाहिए। अगर हम एआई को मजबूत तकनीक मानते हैं तो ये गलत है। हमें कंपनी को एआई के भरोसे नहीं छोड़ना चाहिए। हम इस तकनीक को जितना शक्तिशाली समझते हैं उतनी शक्तिशाली नहीं है।

ये भी पढ़ें– Entertainment Top News 7 June: 100 रुपये से भी कम हुई द केरल स्टोरी की टिकट, शादी पर बयान को लेकर शाहिद ट्रोल

दुनियाभर में कई लोग अब शैक्षणिक उद्देश्यों, प्रौद्योगिकी विकास, सॉफ्टवेयर कोड लिखने आदि के लिए चैटजीपीटी का इस्तेमाल कर रहे हैं। इस वजह से दुनिया भर में एआई के रेगुलेशन और प्रौद्योगिकी के नैतिक उपयोग के लिए दिशानिर्देश जारी होने चाहिए।

ये भी पढ़ेंBiparjoy: खतरनाक रूप लेने वाला है ‘बिपरजॉय’, अगले 24 घंटे में दिखाना शुरू करेगा असर!

भारत में कर सकते हैं निवेश

OpenAIका भू-राजनीति के प्रभाव के बारे में अल्टमैन ने बताया कि इस बात पर कोई निश्चितता नहीं है। महाशक्तियां कैसे प्रौद्योगिकी के विकास को प्रभावित कर सकती हैं।

भौतिक विज्ञानी स्टीफन हॉकिंग ने एआई को लेकर चेतावनी दी है कि एआई के आने से मानव जाति का अंत हो सकता है।

Source :
Click to comment

Leave a Reply

Your email address will not be published. Required fields are marked *

लोकप्रिय

To Top