प्रदेश न्यूज़
Google ने इंजीनियर को निकाल दिया, जिसने कहा था कि AI बॉट संवेदनशील हो गया है
[ad_1]
Google की आर्टिफिशियल इंटेलिजेंस टीम के एक सॉफ्टवेयर इंजीनियर ब्लेक लेमोइन ने सार्वजनिक रूप से कहा है कि तीसरे पक्ष को संवेदनशील परियोजना जानकारी लीक करने के लिए निलंबित किए जाने के बाद उन्हें कंपनी के सर्वर पर “बुद्धिमान” एआई का सामना करना पड़ा।
पिछले हफ्ते की शुरुआत में, अल्फाबेट इंक। फर्म की गोपनीयता नीति के उल्लंघन के आरोपों के बीच शोधकर्ता को सवैतनिक अवकाश पर रखा, उन्होंने एक मध्यम पोस्ट में कहा, “एआई नैतिकता कार्य करने के लिए जल्द ही निकाल दिया जा सकता है।” पोस्ट में, वह मार्गरेट मिशेल जैसे Google के एआई एथिक्स पैनल के पिछले सदस्यों से जुड़ता है, जिन्हें अंततः कंपनी द्वारा इसी तरह से चिंता व्यक्त करने के बाद निकाल दिया गया था।
शनिवार को, वाशिंगटन पोस्ट ने लेमोइन के साथ एक साक्षात्कार प्रकाशित किया जिसमें उन्होंने कहा कि वह इस निष्कर्ष पर पहुंचे हैं कि जिस Google एआई के साथ वह बातचीत कर रहा था वह “एक पुजारी के रूप में मानव था, वैज्ञानिक नहीं।” विचाराधीन AI को LaMDA, या संवादी अनुप्रयोगों के लिए भाषा मॉडल कहा जाता है, और इसका उपयोग चैटबॉट बनाने के लिए किया जा रहा है जो अलग-अलग पहचान मानकर मानव उपयोगकर्ताओं के साथ बातचीत करते हैं। लेमोइन ने कहा कि उन्होंने इसे साबित करने के लिए प्रयोग चलाने की कोशिश की, लेकिन कंपनी के शीर्ष प्रबंधन ने कंपनी के भीतर इस मुद्दे को उठाने पर खारिज कर दिया।
Google के प्रवक्ता ब्रायन गेब्रियल ने जवाब में कहा, “व्यापक एआई समुदाय में से कुछ बुद्धिमान या सामान्य एआई की दीर्घकालिक संभावना पर विचार कर रहे हैं, लेकिन आज के संवादी पैटर्न जो बुद्धिमान नहीं हैं, को मानवकृत करके ऐसा करने का कोई मतलब नहीं है।” “नैतिकतावादियों और प्रौद्योगिकीविदों सहित हमारी टीम ने हमारे एआई सिद्धांतों के अनुरूप ब्लेक की चिंताओं की समीक्षा की और उन्हें सूचित किया कि सबूत उनके दावों का समर्थन नहीं करते हैं।”
लेमोइन के निलंबन के बारे में पूछे जाने पर कंपनी ने कहा कि वह कर्मियों के मामलों पर टिप्पणी नहीं करती है।
पिछले हफ्ते की शुरुआत में, अल्फाबेट इंक। फर्म की गोपनीयता नीति के उल्लंघन के आरोपों के बीच शोधकर्ता को सवैतनिक अवकाश पर रखा, उन्होंने एक मध्यम पोस्ट में कहा, “एआई नैतिकता कार्य करने के लिए जल्द ही निकाल दिया जा सकता है।” पोस्ट में, वह मार्गरेट मिशेल जैसे Google के एआई एथिक्स पैनल के पिछले सदस्यों से जुड़ता है, जिन्हें अंततः कंपनी द्वारा इसी तरह से चिंता व्यक्त करने के बाद निकाल दिया गया था।
शनिवार को, वाशिंगटन पोस्ट ने लेमोइन के साथ एक साक्षात्कार प्रकाशित किया जिसमें उन्होंने कहा कि वह इस निष्कर्ष पर पहुंचे हैं कि जिस Google एआई के साथ वह बातचीत कर रहा था वह “एक पुजारी के रूप में मानव था, वैज्ञानिक नहीं।” विचाराधीन AI को LaMDA, या संवादी अनुप्रयोगों के लिए भाषा मॉडल कहा जाता है, और इसका उपयोग चैटबॉट बनाने के लिए किया जा रहा है जो अलग-अलग पहचान मानकर मानव उपयोगकर्ताओं के साथ बातचीत करते हैं। लेमोइन ने कहा कि उन्होंने इसे साबित करने के लिए प्रयोग चलाने की कोशिश की, लेकिन कंपनी के शीर्ष प्रबंधन ने कंपनी के भीतर इस मुद्दे को उठाने पर खारिज कर दिया।
Google के प्रवक्ता ब्रायन गेब्रियल ने जवाब में कहा, “व्यापक एआई समुदाय में से कुछ बुद्धिमान या सामान्य एआई की दीर्घकालिक संभावना पर विचार कर रहे हैं, लेकिन आज के संवादी पैटर्न जो बुद्धिमान नहीं हैं, को मानवकृत करके ऐसा करने का कोई मतलब नहीं है।” “नैतिकतावादियों और प्रौद्योगिकीविदों सहित हमारी टीम ने हमारे एआई सिद्धांतों के अनुरूप ब्लेक की चिंताओं की समीक्षा की और उन्हें सूचित किया कि सबूत उनके दावों का समर्थन नहीं करते हैं।”
लेमोइन के निलंबन के बारे में पूछे जाने पर कंपनी ने कहा कि वह कर्मियों के मामलों पर टिप्पणी नहीं करती है।
.
[ad_2]
Source link