“एआई का क्रॉस -फादर” जेफरी हिंटन “खतरनाक” लेबल से सहमत है, जिसे एलोन मस्क ने कैटगिप्ट मेकर ओपनई के लिए कहा था; चेतावनी … |

जेफरी हिंटन उन्होंने एलोन मस्क से परे अपना वजन फेंक दिया, एक गैर-लाभकारी संगठन से एक वाणिज्यिक संरचना के लिए कैटगिप्ट-मेकर ओपनई संक्रमण को रोकने के लिए अपने संघर्ष में। 2024 नोबेल पुरस्कार भौतिकी में, कृत्रिम सामान्य खुफिया सुनिश्चित करने के लिए अपने मिशन के जोखिमों का उल्लेख करते हुए (आंदोलन) मानव जाति के फायदे, ओपनई के पाठ्यक्रम को रोकना चाहते हैं। कस्तूरी उन्होंने X के बारे में एक पोस्ट साझा की, जेफरी हिंटन की समस्याओं को मजबूत करते हुए, हिंटन की Google खोज का एक स्क्रीनशॉट प्रकाशित किया और इस बात पर जोर दिया कि वह एक नोबेल पुरस्कार विजेता था, जो उसे और एआई की अक्षमता के गॉडफादर पर जोर देने की कोशिश कर रहा था।
कैलिफोर्निया और डेलावेयर के जनरल को हिंटन का खुला पत्र, उनसे ओपनईआई के पुनर्गठन को रोकने का आग्रह करता है। हिंटन, कृत्रिम तंत्रिका नेटवर्क में उनके योगदान के लिए “एआई के गॉडफादर” के रूप में प्रतिष्ठित थे, ने चेतावनी दी कि शिफ्ट एजीआई के नैतिक विकास को कम करके, सुरक्षा से लाभ को प्राथमिकता दे सकती है।
“क्रॉस -फादर एआई” और पूर्व ओपनई के पूर्व कर्मचारियों का कहना है कि एजीआई खतरनाक है
हिंटन, जिसमें 30 से अधिक शामिल हुए Ai -experts और पूर्व Openai कर्मचारियों ने AGI को “हमारे समय की सबसे महत्वपूर्ण और संभावित खतरनाक तकनीक” कहा, जो विश्वसनीय सुरक्षा संरचनाओं की आवश्यकता पर जोर देता है। ENCODE द्वारा समर्थित उनका पत्र, सुरक्षा पर केंद्रित अपने मूल गैर -लाभकारी चार्टर को छोड़ने के लिए Openai की आलोचना करता है, यह एक ऐसा कदम है जो उनका मानना है कि भयावह परिणाम हो सकते हैं।
मस्क, जिसने ओपनई को गाया, लेकिन बाद में कंपनी पर अपनी गैर -लाभकारी जड़ों के कथित विश्वासघात के लिए मुकदमा दायर किया, लंबे समय से एआई के लिए खेला है, सच्चाई की तलाश में, जैसा कि उन्होंने 2024 में सफलता पुरस्कार के समारोह में पुष्टि की, जिज्ञासा की प्राथमिकता और मैनकाइंड की अच्छी तरह से ज़रूरत पर जोर दिया।
ओपनई, निर्माता चटपटदिसंबर 2024 में पुनर्गठन के लिए योजनाओं की घोषणा की, गैर -लाभकारी हाथ के अधिकार को कम करने के लिए महत्वपूर्ण निवेशों को आकर्षित करने के लिए, जापान से $ 40 बिलियन सहित सॉफ्टबैंककंपनी जोर देकर कहती है कि वह अपने मिशन को बनाए रखेगी, अपने वाणिज्यिक हाथ को सार्वजनिक लाभों के निगम में बदल देगी, जो कि एप्रोपिक और मस्क के XAI द्वारा उपयोग किए जाने वाले मॉडल के समान है। फिर भी, हिंटन और मस्क सहित आलोचकों का तर्क है कि यह हाइब्रिड संरचना उस समय सुरक्षा नियंत्रण को कम करने का जोखिम उठाती है जब हिंटन 10-20% संभावना का मूल्यांकन करता है कि एआई दशकों तक किसी व्यक्ति पर नियंत्रण को पार करेगा।