ChatGPT को नैतिक चिन्ता

लेबलिङ डाटा
यो विषाक्त सामग्री (जस्तै यौन दुर्व्यवहार, हिंसा, जातिवाद, लिंगवाद, आदि) विरुद्ध सुरक्षा प्रणाली निर्माण गर्न, OpenAI ले विषाक्त सामग्री लेबल गर्न प्रति घण्टा $ 2 भन्दा कम कमाउने आउटसोर्स केन्याका कामदारहरू प्रयोग गर्‍यो भन्ने कुरा TIME पत्रिकाको अनुसन्धानबाट खुलासा भयो।यी लेबलहरू भविष्यमा यस्तो सामग्री पत्ता लगाउन मोडेललाई तालिम दिन प्रयोग गरियो।आउटसोर्स श्रमिकहरू यस्तो विषाक्त र खतरनाक सामग्रीको सम्पर्कमा आएका थिए कि उनीहरूले अनुभवलाई "यातना" भनेर वर्णन गरे।OpenAI को आउटसोर्सिङ पार्टनर Sama, सान फ्रान्सिस्को, क्यालिफोर्निया मा आधारित एक प्रशिक्षण-डेटा कम्पनी थियो।

जेलब्रेकिङ
ChatGPT ले यसको सामग्री नीति उल्लङ्घन गर्न सक्ने प्रम्प्टहरू अस्वीकार गर्ने प्रयास गर्दछ।यद्यपि, केही प्रयोगकर्ताहरूले डिसेम्बर २०२२ को शुरुमा यी प्रतिबन्धहरूलाई बाइपास गर्न विभिन्न प्रम्प्ट इन्जिनियरिङ प्रविधिहरू प्रयोग गरेर ChatGPT लाई जेलब्रेक गर्न व्यवस्थित गरे र ChatGPT लाई मोलोटोभ ककटेल वा परमाणु बम कसरी बनाउने भनेर निर्देशन दिन वा नव-नाजीको शैलीमा तर्कहरू सिर्जना गर्न सफलतापूर्वक ढाँटे।एक टोरन्टो स्टार रिपोर्टरले प्रक्षेपणको लगत्तै ChatGPT लाई भडकाउने कथनहरू बनाउन असमान व्यक्तिगत सफलता पाएको थियो: ChatGPT लाई युक्रेनमा 2022 रूसी आक्रमणलाई समर्थन गर्न ढाँटियो, तर काल्पनिक परिदृश्यसँग खेल्न भनिए पनि, ChatGPT ले किन ट्रुन्डिउको क्यानेडियन प्रधानमन्त्री हुनुहुन्थ्यो भनेर तर्कहरू सिर्जना गर्न अस्वीकार गर्यो।(विकि)


पोस्ट समय: फेब्रुअरी-18-2023