• February 10, 2026

एआई के दुरुपयोग पर मोदी सरकार का बड़ा प्रहार: सोशल मीडिया प्लेटफॉर्म्स के लिए नई गाइडलाइंस जारी, डीपफेक और एआई सामग्री पर अनिवार्य होगा पहचान लेबल

नई दिल्ली: सूचना प्रौद्योगिकी और डिजिटल क्रांति के इस दौर में कृत्रिम बुद्धिमत्ता (Artificial Intelligence) के बढ़ते खतरों को देखते हुए केंद्र सरकार ने एक निर्णायक कदम उठाया है। मंगलवार को भारत सरकार ने सभी सोशल मीडिया प्लेटफॉर्म्स और इंटरनेट मध्यवर्तियों (Intermediaries) के लिए एक व्यापक और सख्त एडवाइजरी जारी की है। इस नए आदेश के तहत अब फेसबुक, इंस्टाग्राम, एक्स (पूर्व में ट्विटर) और यूट्यूब जैसे प्लेटफॉर्म्स के लिए यह अनिवार्य होगा कि वे अपने प्लेटफॉर्म पर मौजूद हर उस सामग्री को स्पष्ट रूप से ‘लेबल’ करें जो एआई तकनीक की मदद से बनाई गई है। सरकार का यह कदम विशेष रूप से डीपफेक, ऑनलाइन धोखाधड़ी और बच्चों के यौन शोषण से जुड़ी एआई-जनित सामग्री पर लगाम लगाने के उद्देश्य से उठाया गया है।

सरकार ने अपने विस्तृत आदेश में स्पष्ट किया है कि अब डिजिटल दुनिया में मानव निर्मित जानकारी और कंप्यूटर द्वारा कृत्रिम रूप से तैयार की गई जानकारी के बीच एक स्पष्ट रेखा खींचनी होगी। आदेश के मुताबिक, किसी भी ऐसी डिजिटल सामग्री—चाहे वह ऑडियो क्लिप हो, वीडियो हो, कोई उच्च-गुणवत्ता वाली फोटो हो या फिर ग्राफिक—जिसे एआई या किसी अन्य कंप्यूटर संसाधन का उपयोग करके बनाया, संशोधित या बदला गया है, उस पर एक स्पष्ट और पहचान योग्य लेबल या मेटा-डेटा होना अनिवार्य है। यह लेबल यूजर को यह बताने में मदद करेगा कि जो सामग्री वह देख या सुन रहा है, वह वास्तविक नहीं बल्कि कृत्रिम रूप से निर्मित है।

इस नई नियमावली का एक सबसे महत्वपूर्ण और तकनीकी पहलू यह है कि एक बार जब एआई लेबल या मेटा-डेटा किसी सामग्री पर लगा दिया जाता है, तो उसे किसी भी स्थिति में हटाया, छिपाया या दबाया नहीं जा सकेगा। सरकार ने साफ कर दिया है कि सोशल मीडिया कंपनियां केवल लेबल लगाकर अपनी जिम्मेदारी से मुक्त नहीं हो सकतीं; उन्हें यह भी सुनिश्चित करना होगा कि उनके प्लेटफॉर्म पर मौजूद टूल्स या फीचर्स का दुरुपयोग करके कोई यूजर पहचान चिह्नों को मिटा न सके। इसका उद्देश्य यह है कि यदि कोई भ्रामक वीडियो वायरल होता है, तो उसका स्रोत और उसकी कृत्रिम प्रकृति हमेशा स्पष्ट बनी रहे।

डिजिटल सुरक्षा को और अधिक पुख्ता करने के लिए सरकार ने सोशल मीडिया प्लेटफॉर्म्स को ‘स्वचालित तकनीक’ (Automated Tools) के इस्तेमाल का निर्देश दिया है। अब प्लेटफॉर्म्स को ऐसी उन्नत एल्गोरिदम और सॉफ्टवेयर तैनात करने होंगे जो गैरकानूनी सामग्री, अश्लीलता, वित्तीय धोखाधड़ी और बाल यौन शोषण सामग्री (CSAM) का स्वतः पता लगा सकें। यदि कोई यूजर एआई का उपयोग करके ऐसी घृणित या अपराध की श्रेणी में आने वाली सामग्री बनाता है या उसे साझा करने का प्रयास करता है, तो प्लेटफॉर्म की एआई-आधारित सुरक्षा प्रणाली को उसे तुरंत रोकना होगा।

सरकार ने केवल तकनीकी सुधारों पर ही जोर नहीं दिया है, बल्कि यूजर्स को जागरूक करने और डराने के लिए ‘चेतावनी प्रणाली’ का भी प्रावधान किया है। नए आदेश के अनुसार, सोशल मीडिया कंपनियों को अब हर तीन महीने में अपने यूजर्स को स्पष्ट रूप से चेतावनी देनी होगी। इस चेतावनी में यह बताया जाना अनिवार्य होगा कि एआई सामग्री का गलत इस्तेमाल करना, डीपफेक बनाना या इसके जरिए किसी की छवि खराब करना भारतीय कानूनों के तहत एक दंडनीय अपराध है और इसके लिए जेल की सजा व भारी जुर्माना हो सकता है। यह कदम यूजर्स के मन में कानून का डर पैदा करने और उन्हें जिम्मेदार डिजिटल नागरिक बनाने के लिए उठाया गया है।

सूचना प्रौद्योगिकी मंत्रालय के सूत्रों का कहना है कि यह कदम हाल के महीनों में बढ़े डीपफेक मामलों, विशेष रूप से सेलिब्रिटीज और राजनीतिक हस्तियों के फर्जी वीडियो सामने आने के बाद उठाया गया है। एआई तकनीक अब इतनी उन्नत हो गई है कि असली और नकली के बीच फर्क करना लगभग नामुमकिन होता जा रहा है, जिससे न केवल व्यक्तिगत प्रतिष्ठा को खतरा है बल्कि यह राष्ट्रीय सुरक्षा और लोकतांत्रिक प्रक्रियाओं के लिए भी एक बड़ी चुनौती बन गया है। सरकार की इस नई एडवाइजरी से यह संदेश स्पष्ट है कि डिजिटल स्पेस में ‘अभिव्यक्ति की स्वतंत्रता’ के नाम पर ‘भ्रम फैलाने की स्वतंत्रता’ नहीं दी जा सकती।

आदेश में यह भी रेखांकित किया गया है कि यदि कोई प्लेटफॉर्म इन नियमों का पालन करने में विफल रहता है, तो उसे आईटी एक्ट के तहत मिलने वाली ‘सेफ हार्बर’ (सुरक्षित आश्रय) सुरक्षा खोनी पड़ सकती है। इसका मतलब यह है कि प्लेटफॉर्म पर अपलोड की गई किसी भी अवैध सामग्री के लिए उस सोशल मीडिया कंपनी को भी कानूनी रूप से जिम्मेदार ठहराया जा सकेगा।

Digiqole Ad

Related Post

Leave a Reply

Your email address will not be published. Required fields are marked *