प्रदेश न्यूज़

Google ने इंजीनियर को निकाल दिया, जिसने कहा था कि AI बॉट संवेदनशील हो गया है

[ad_1]

Google की आर्टिफिशियल इंटेलिजेंस टीम के एक सॉफ्टवेयर इंजीनियर ब्लेक लेमोइन ने सार्वजनिक रूप से कहा है कि तीसरे पक्ष को संवेदनशील परियोजना जानकारी लीक करने के लिए निलंबित किए जाने के बाद उन्हें कंपनी के सर्वर पर “बुद्धिमान” एआई का सामना करना पड़ा।
पिछले हफ्ते की शुरुआत में, अल्फाबेट इंक। फर्म की गोपनीयता नीति के उल्लंघन के आरोपों के बीच शोधकर्ता को सवैतनिक अवकाश पर रखा, उन्होंने एक मध्यम पोस्ट में कहा, “एआई नैतिकता कार्य करने के लिए जल्द ही निकाल दिया जा सकता है।” पोस्ट में, वह मार्गरेट मिशेल जैसे Google के एआई एथिक्स पैनल के पिछले सदस्यों से जुड़ता है, जिन्हें अंततः कंपनी द्वारा इसी तरह से चिंता व्यक्त करने के बाद निकाल दिया गया था।
शनिवार को, वाशिंगटन पोस्ट ने लेमोइन के साथ एक साक्षात्कार प्रकाशित किया जिसमें उन्होंने कहा कि वह इस निष्कर्ष पर पहुंचे हैं कि जिस Google एआई के साथ वह बातचीत कर रहा था वह “एक पुजारी के रूप में मानव था, वैज्ञानिक नहीं।” विचाराधीन AI को LaMDA, या संवादी अनुप्रयोगों के लिए भाषा मॉडल कहा जाता है, और इसका उपयोग चैटबॉट बनाने के लिए किया जा रहा है जो अलग-अलग पहचान मानकर मानव उपयोगकर्ताओं के साथ बातचीत करते हैं। लेमोइन ने कहा कि उन्होंने इसे साबित करने के लिए प्रयोग चलाने की कोशिश की, लेकिन कंपनी के शीर्ष प्रबंधन ने कंपनी के भीतर इस मुद्दे को उठाने पर खारिज कर दिया।
Google के प्रवक्ता ब्रायन गेब्रियल ने जवाब में कहा, “व्यापक एआई समुदाय में से कुछ बुद्धिमान या सामान्य एआई की दीर्घकालिक संभावना पर विचार कर रहे हैं, लेकिन आज के संवादी पैटर्न जो बुद्धिमान नहीं हैं, को मानवकृत करके ऐसा करने का कोई मतलब नहीं है।” “नैतिकतावादियों और प्रौद्योगिकीविदों सहित हमारी टीम ने हमारे एआई सिद्धांतों के अनुरूप ब्लेक की चिंताओं की समीक्षा की और उन्हें सूचित किया कि सबूत उनके दावों का समर्थन नहीं करते हैं।”
लेमोइन के निलंबन के बारे में पूछे जाने पर कंपनी ने कहा कि वह कर्मियों के मामलों पर टिप्पणी नहीं करती है।

.

[ad_2]

Source link

Related Articles

Leave a Reply

Your email address will not be published. Required fields are marked *

Back to top button