1678346

मेटा: Google, Meta, OpenAI समेत 7 कंपनियां जिम्मेदार AI विकास के लिए प्रतिबद्ध हैं

Photo of author

By jeenmediaa



कृत्रिम बुद्धिमत्ता (एआई) उपकरण और उत्पादों के विकास में शामिल शीर्ष कंपनियां स्वेच्छा से वादों की एक श्रृंखला पर सहमत होकर उपयोगकर्ताओं को प्रौद्योगिकी द्वारा उत्पन्न जोखिमों से बचाने के लिए प्रतिबद्ध हैं। इन कंपनियों में शामिल हैं वीरांगनाएंथ्रोपिक, गूगल, इन्फ्लेक्शन, मेटा, माइक्रोसॉफ्ट और ओपनएआई.

के एक नोट के अनुसार सफेद घरबिडेन-हैरिस प्रशासन ने “एआई प्रौद्योगिकी के सुरक्षित, सुरक्षित और पारदर्शी विकास की दिशा में आगे बढ़ने में मदद करने के लिए इन कंपनियों से स्वैच्छिक प्रतिबद्धताएं हासिल की हैं।”
इसमें यह भी कहा गया है कि कंपनियों ने प्रतिबद्धताओं को तुरंत पूरा करने का विकल्प चुना है और वे जिम्मेदार एआई विकसित करने में मौलिक तीन सिद्धांतों – सुरक्षा, सुरक्षा और विश्वास – को रेखांकित करते हैं।

प्रतिबद्धताएं क्या हैं?
तकनीकी दिग्गजों की प्रतिबद्धताएँ मोटे तौर पर इन तीन सिद्धांतों के तहत विभाजित हैं। इन कंपनियों ने आंतरिक और बाह्य सुरक्षा परीक्षण के लिए प्रतिबद्धता जताई है, जो उनके रिलीज़ होने से पहले उनके एआई सिस्टम के आंशिक रूप से स्वतंत्र विशेषज्ञों द्वारा किया जाएगा। दूसरे, कंपनियां एआई जोखिमों के प्रबंधन पर सरकारों, नागरिक समाज और शिक्षा जगत के साथ-साथ पूरे उद्योग में जानकारी साझा करेंगी।
ये सात तकनीकी कंपनियां साइबर सुरक्षा में भी निवेश करेंगी, और अपने एआई सिस्टम में कमजोरियों की तीसरे पक्ष की खोज और रिपोर्टिंग की सुविधा प्रदान करेंगी। उन्हें सामाजिक चुनौतियों से निपटने में मदद के लिए उन्नत एआई सिस्टम विकसित और तैनात करना होगा, और सार्वजनिक रूप से अपने एआई सिस्टम की क्षमताओं, सीमाओं और उचित और अनुचित उपयोग के क्षेत्रों की रिपोर्ट करनी होगी।
टेक सीईओ एआई विकास पर काम करते हैं
Google और OpenAI, दूसरों के बीच, पहले से ही प्रौद्योगिकी के जिम्मेदार विकास को बढ़ावा दे रहे हैं। जबकि Google के सीईओ सुंदर पिचाई ने सार्वजनिक मंचों और साक्षात्कारों में इसके बारे में बहुत कुछ बोला है, OpenAI के मुख्य कार्यकारी ने हाल ही में अपने वैश्विक दौरे का समापन किया जहां उन्होंने जिम्मेदार AI की आवश्यकता के बारे में बात करने के लिए भारत सहित कई देशों का दौरा किया।
इस साल जून में, सेब सीईओ टिम कुक एआई द्वारा मानवता के समक्ष उत्पन्न होने वाली संभावनाओं और खतरों के बारे में भी खुलकर बात की। उन्होंने कहा कि बड़े भाषा मॉडल (एलएलएम) “महान वादा” दिखाते हैं लेकिन साथ ही “पूर्वाग्रह जैसी चीजों, गलत सूचना जैसी चीजों” की संभावना भी दिखाते हैं। [and] शायद कुछ मामलों में इससे भी बुरा।”
विनियमन और रेलिंग की आवश्यकता पर जोर देते हुए, कुक ने कहा, “यदि आप नीचे देखें, तो यह इतना शक्तिशाली है कि कंपनियों को अपने स्वयं के नैतिक निर्णय लेने पड़ते हैं।”




Leave a Comment