AI से लोग दिनभर में अनगिनत सवाल पूछते हैं। जो काम पहले गूगल किया करता था, अब वह AI कर रहा है, उससे बेहतर कर रहा है। लोगों के मन में कोई भी सवाल आता है, तो वे अब गूगल की बजाय AI चैटबॉट से पूछना ज्यादा मुनासिब समझते हैं। ऐसा इसलिए क्योंकि AI आपको डीप जानकारी देता है, आपका जो सवाल है, उसका सटीक जवाब देता है, इसमें अलग-अलग साइट्स खोलने का झंझट नहीं रहता है। लेकिन क्या आप जानते हैं कि AI द्वारा दिए गए जवाबों में कुछ जानकारी ऐसी भी होती है, जो सोर्स नहीं देते हैं। यानी एक तरह से लोग इनकी जानकारी के आधार पर बेवकूफ बन सकते हैं।
इन टूल्स की जांच की गईइंडियन एक्सप्रेस की एक रिपोर्ट में एक रिसर्च का जिक्र हुआ है, जो सेल्सफोर्स एआई रिसर्च के प्रणव नारायण वेंकट और उनकी टीम ने की। इस अध्ययन में पाया गया कि कई AI टूल्स एकतरफा जानकारी देते हैं या ऐसी बातें बताते हैं जो उनके स्रोतों में नहीं होतीं। रिसर्चर्स ने OpenAI के जीपीटी-4.5 और 5, यू.कॉम, परप्लेक्सिटी और माइक्रोसॉफ्ट के बिंग चैट जैसे AI सर्च इंजनों का टेस्ट किया। इनके अलावा, पांच डीप रिसर्च टूल्स की भी जांच की गई।
सवालों को दो हिस्सों में बांटाशोधकर्ताओं ने आठ पैरामीटर पर बेस्ड डीपट्रेस का इस्तेमाल किया। इस सिस्टम से यह जांचा गया कि AI के जवाब एकतरफा हैं या निष्पक्ष? सवालों को दो हिस्सों में बांटा गया। पहले ऐसे सवाल जिनसे AI के जवाबों में पक्षपात का पता चल सके। दूसरे एक्सपर्ट्स वाले सवाल, जैसे मौसम विज्ञान, मेडिसिन और कंप्यूटर-ह्यूमन इंटरैक्शन।
एक तिहाई AI टूल्स दे रहे गलत जानकारीइस रिसर्च में पाया गया कि वन थर्ड एआई टूल्स और सर्च इंजन एकतरफा या गलत जानकारी देते हैं। बिंग चैट के 23% जवाबों में ऐसी बातें थीं जो स्रोतों से सही नहीं थीं। यू.कॉम और परप्लेक्सिटी के 31% दावे बिना सबूत के थे। सबसे ज्यादा चिंता की बात यह थी कि OpenAI के जीपीटी-4.5 ने 47% और परप्लेक्सिटी के डीप रिसर्च एजेंट ने 97.5% दावे बिना सही सोर्स के किए।
पहले भी ऐसी रिसर्च में उठे हैं सवालAI के पक्षपात पर ऑक्सफोर्ड यूनिवर्सिटी के फेलिक्स साइमन का कहना है कि यह रिसर्च एआई सिस्टम की कमियों को दिखाती है। पहले के भी कुछ रिसर्च में यह बात सामने आई थी कि एआई एकतरफा या गलत जवाब देता है। यह रिसर्च इस समस्या को सुधारने में मदद कर सकता है। हालांकि, स्विट्जरलैंड की ज्यूरिख यूनिवर्सिटी की अलेक्सांद्रा उरमान ने रिसर्च के तरीके पर सवाल उठाए।
इन टूल्स की जांच की गईइंडियन एक्सप्रेस की एक रिपोर्ट में एक रिसर्च का जिक्र हुआ है, जो सेल्सफोर्स एआई रिसर्च के प्रणव नारायण वेंकट और उनकी टीम ने की। इस अध्ययन में पाया गया कि कई AI टूल्स एकतरफा जानकारी देते हैं या ऐसी बातें बताते हैं जो उनके स्रोतों में नहीं होतीं। रिसर्चर्स ने OpenAI के जीपीटी-4.5 और 5, यू.कॉम, परप्लेक्सिटी और माइक्रोसॉफ्ट के बिंग चैट जैसे AI सर्च इंजनों का टेस्ट किया। इनके अलावा, पांच डीप रिसर्च टूल्स की भी जांच की गई।
सवालों को दो हिस्सों में बांटाशोधकर्ताओं ने आठ पैरामीटर पर बेस्ड डीपट्रेस का इस्तेमाल किया। इस सिस्टम से यह जांचा गया कि AI के जवाब एकतरफा हैं या निष्पक्ष? सवालों को दो हिस्सों में बांटा गया। पहले ऐसे सवाल जिनसे AI के जवाबों में पक्षपात का पता चल सके। दूसरे एक्सपर्ट्स वाले सवाल, जैसे मौसम विज्ञान, मेडिसिन और कंप्यूटर-ह्यूमन इंटरैक्शन।
एक तिहाई AI टूल्स दे रहे गलत जानकारीइस रिसर्च में पाया गया कि वन थर्ड एआई टूल्स और सर्च इंजन एकतरफा या गलत जानकारी देते हैं। बिंग चैट के 23% जवाबों में ऐसी बातें थीं जो स्रोतों से सही नहीं थीं। यू.कॉम और परप्लेक्सिटी के 31% दावे बिना सबूत के थे। सबसे ज्यादा चिंता की बात यह थी कि OpenAI के जीपीटी-4.5 ने 47% और परप्लेक्सिटी के डीप रिसर्च एजेंट ने 97.5% दावे बिना सही सोर्स के किए।
पहले भी ऐसी रिसर्च में उठे हैं सवालAI के पक्षपात पर ऑक्सफोर्ड यूनिवर्सिटी के फेलिक्स साइमन का कहना है कि यह रिसर्च एआई सिस्टम की कमियों को दिखाती है। पहले के भी कुछ रिसर्च में यह बात सामने आई थी कि एआई एकतरफा या गलत जवाब देता है। यह रिसर्च इस समस्या को सुधारने में मदद कर सकता है। हालांकि, स्विट्जरलैंड की ज्यूरिख यूनिवर्सिटी की अलेक्सांद्रा उरमान ने रिसर्च के तरीके पर सवाल उठाए।
You may also like
क्या अक्टूबर में मोदी-ट्रंप की मुलाक़ात होगी? व्यापार युद्ध और टैरिफ़ युद्ध के बीच मिल सकते हैं दोनों लीडर
खाद की पर्याप्त आपूर्ति करे लेकर Dotasra ने साधा निशाना, कहा- भाजपा सरकार और इनके मंत्रियों के बयानों…
अमेरिका में पुलिस की गोली से भारतीय छात्र की मौत, पिता ने की सरकार से ये मांग
महाभारत काल से जुड़ा राजस्थान का यह शहर, कहा जाता है यहां पांडवों ने रखे थे अपने दिव्य अस्त्र-शस्त्र
स्वास्थ्य का खज़ाना: तिल का बीज है डायबिटीज और कोलेस्ट्रॉल के लिए कारगर