
பட மூலாதாரம், Getty Images
ராஷ்மிகா மந்தனா குறித்து வெளியான ‘டீப் ஃபேக்’ வீடியோ, பெண்களிடையே அச்சத்தை ஏற்படுத்தியுள்ளது.
நடிகை ராஷ்மிகா மந்தனா குறித்து தற்போது ஏராளமான செய்திகள் வெளியாகின்றன. ‘டீப் ஃபேக்’ தொழில்நுட்பத்துடன் வெளியான ஒரு வைரல் வீடியோதான் அவர் செய்திகளில் அதிகமாக இடம்பெறக் காரணமாக மாறியுள்ளது. இந்நிலையில், ‘டீப் ந்ஃபேக்’ தொழில்நுட்பம் குறித்துப் புதிய விவாதமும் தொடங்கியுள்ளது.
‘புஷ்பா’ போன்ற வெற்றிப் படங்களின் மூலம் முத்திரை பதித்த ராஷ்மிகா மந்தனாவை வேறொரு பெண் மூலம் இந்த ‘டீப் ஃபேக்’ வீடியோ காட்டுவது குறித்த விவாதம் தற்போது ஊடகங்களில் அதிக எண்ணிக்கையில் பகிரப்படுகிறது.
இந்த வீடியோவில் காணப்படும் பெண்ணை டீப் ஃபேக் தொழில்நுட்பத்தில் ராஷ்மிகா மந்தனாவாக காட்ட முயற்சி மேற்கொள்ளப்பட்டது.
இதற்கு ‘மிகுந்த வருத்தம்’ தெரிவித்த ராஷ்மிகா, தன்னைப் போல் வேறு யாரும் பாதிக்கப்படாமல் இருக்க விரைவில் இந்த பிரச்னைக்குத் தீர்வு காணுமாறு வேண்டுகோள் விடுத்துள்ளார்.
“உண்மையாக, இதுபோன்ற பிரச்னை எதுவும், எனக்கு மட்டுமல்ல, நம் அனைவருக்கும் மிகந்த பயத்தை அளித்துள்ளது,” என்று ராஷ்மிகா தனது எக்ஸ் சமூக ஊடக பக்கத்தில் எழுதியுள்ளார்.
இன்று தொழில்நுட்பம் தவறாகப் பயன்படுத்தப்படும் விதம் தனக்கு மட்டுமின்றி பலருக்கும் பெரும் இழப்பை ஏற்படுத்தும் என்றும் அதில் அவர் மேலும் கூறியுள்ளார்.
ராஷ்மிகாவின் சமூக ஊடக பதிவில், “இன்று எனது பாதுகாவலராகவும் எனக்கு ஆதரவாகவும் இருக்கும் என் குடும்பத்தினர், நண்பர்கள் மற்றும் நலம் விரும்பிகளுக்கு ஒரு பெண்ணாகவும், நடிகையாகவும் நன்றிகளைத் தெரிவித்துக்கொள்கிறேன்,” என எழுதியுள்ளார்.
“ஆனால் நான் பள்ளியிலோ அல்லது கல்லூரியிலோ படிக்கும்போது இதுபோன்ற சம்பவம் நடந்திருந்தால், நான் அதை எப்படி எதிர்கொண்டிருப்பேன் என்று என்னால் கற்பனைகூடச் செய்து பார்க்க முடியாது.”
இந்த வீடியோவை மேற்கோள் காட்டி நடிகர் அமிதாப் பச்சன், இந்த விவகாரத்தில் சட்டப்படி நடவடிக்கை எடுக்க வேண்டும் என்று வலியுறுத்தியுள்ளார்.

பட மூலாதாரம், Getty Images
‘டீப் ஃபேக்’ தொழில்நுட்பத்தில் பல்வேறு துறைகளைச் சேர்ந்த பிரபலங்கள் குறித்த போலி வீடியோக்கள் சமூக ஊடகங்களில் பகிரப்பட்டு வருகின்றன.
அதே நேரத்தில், சமூக ஊடகங்கள் தங்கள் தளங்களில் தவறான தகவல்கள் பகிரப்படாமல் இருப்பதை உறுதி செய்ய வேண்டும் என்று மத்திய அமைச்சர் ராஜீவ் சந்திரசேகர் கூறியுள்ளார்.
இந்த வைரலான வீடியோ டீப் ஃபேக் தொழில்நுட்பம் மூலம் உருவாக்கப்பட்டுள்ளது. இதைத் தகவல் சரிபார்ப்பு இணையதளமான ஆல்ட் நியூஸ் (Alt News) வெளியிட்டுள்ளது.
ஆல்ட் நியூஸ் (Alt News) உடன் தொடர்புடைய அபிஷேக், தனது எக்ஸ் பக்கத்தில், “இந்த வீடியோ டீப் ஃபேக் தொழில்நுட்பத்தைப் பயன்படுத்தி உருவாக்கப்பட்டுள்ளது என்பதுடன், வீடியோவில் காணப்பட்ட பெண் ராஷ்மிகா மந்தனா அல்ல,” என்று கூறினார்.
‘டீப் ஃபேக்’ தொழில்நுட்பம் என்றால் என்ன?
டீப்ஃபேக் என்பது வீடியோக்கள், படங்கள் மற்றும் ஆடியோக்களை செயற்கை நுண்ணறிவைப் பயன்படுத்திப் பதிவு செய்யும் ஒரு தொழில்நுட்பம்.
இத்தொழில்நுட்பத்தின் மூலம், மற்றொருவரின் புகைப்படம் அல்லது வீடியோவை அதில் வேறொருவரின் முகத்தைப் பயன்படுத்தி மாற்றலாம்.
எளிமையான மொழியில், இந்த நுட்பத்தில் செயற்கை நுண்ணறிவைப் பயன்படுத்தி ஒரு போலி வீடியோவை உருவாக்க முடியும். இது உண்மையான வீடியோவைப் போல் தெரியும். ஆனால் அது போலியானது. இந்தக் காரணத்தினால்தான் இதற்கு ‘டீப்ஃபேக்’ எனப் பெயரிடப்பட்டுள்ளது.
இந்த ‘டீப் ஃபேக்’ என்ற சொல், ஏற்கெனவே உள்ள தகவல்களின் படி, 2017 முதல் பயன்படுத்தப்பட்டு வருகிறது. ஒரு ரெடிட் (Reddit) பயனர் ஆபாச வீடியோக்களில் முகத்தின் அடையாளத்தை மாற்ற இந்த தொழில்நுட்பத்தைப் பயன்படுத்தினார். பின்னர் ரெடிட், ‘டீப்ஃபேக் ஆபாசங்களைத்’ தடை செய்தது.

பட மூலாதாரம், OTHER
‘டீப்ஃபேக்’ உள்ளடக்கங்களைத் தயாரிப்பது மிகவும் சிக்கலானது என்பதால் கணினிக் கல்வியில் தேர்ச்சி பெற்றிருப்பது அவசியம்.
இந்தத் தொழில்நுட்பம் எவ்வாறு செயல்படுகிறது?
‘டீப் ஃபேக்’ என்பது மிகவும் சிக்கலான தொழில்நுட்பம். இதற்கு கணினிக் கல்வியில் தேர்ச்சி பெற்றிருக்க வேண்டும்.
டீப்ஃபேக் பதிவுகள் ஒன்றுடன் ஒன்று போட்டியிடும் இரண்டு அல்காரிதம்களைப் பயன்படுத்தி உருவாக்கப்படுகின்றன. ஒன்று டிகோடர் என்றும் மற்றொன்று என்கோடர் என்றும் அழைக்கப்படுகிறது.
இதில், போலியா உள்ளடக்கத்தைத் தயாரிப்பவர் அது உண்மையானதா அல்லது போலியானதா என்பதைக் கண்டறிய டிகோடரை கேட்கிறார்.
ஒவ்வொரு முறையும் டிகோடர் உள்ளடக்கத்தை உண்மையானது அல்லது போலியானது என சரியாகக் கண்டறியும்போது, அது அந்தத் தகவலை என்கோடருக்கு அனுப்பி, தவறுகளைச் சரி செய்வதன் மூலம் அடுத்த டீப்ஃபேக் உள்ளடக்கத்தை மேம்படுத்துகிறது.
இந்த இரண்டு செயல்முறைகளையும் ஒன்றாக இணைப்பதன் மூலம் GAN எனப்படும் ஒரு உருவாக்கும் எதிரி நெட்வொர்க் உருவாக்கப்படுகிறது.

பட மூலாதாரம், MYHERITAGE
‘டீப் ஃபேக்’ தொழில் நுட்பத்தில் உருவாக்கப்படும் போலி வீடியோக்கள் கடந்த பல ஆண்டுகளாகவே உலகம் முழுவதும் பிரபலமடைந்து வருகிறது.
‘டீப் ஃபேக்’ உள்ளடக்கங்கள் எங்கே பயன்படுத்தப்படுகின்றன?
ஏற்கெனவே இருக்கும் தகவல்களின்படி, இந்தத் தொழில்நுட்பம் ஆபாசமான உள்ளடக்கத்தை உருவாக்குவதற்காகத் தான் முதன் முதலாகத் தொடங்கப்பட்டது.
இந்த டீப் ஃபேக் நுட்பம் ஆபாசத்தில் அதிகம் பயன்படுத்தப்பட்டு வருகிறது. திரைப்பட நடிகர், நடிகைகளின் முகத்தை மாற்றித் தயாரிக்கப்படும் ஆபாச உள்ளடக்கங்களை வெளியிடுவதற்காகவே செயல்படும் பிரத்யேக தளங்களில் வெளியிடப்படுகின்றன.
டீப் ட்ரேஸ் (DeepTrace) அளித்துள்ள தகவல்களின்படி, 2019இல் ஆன்லைனில் கண்டுபிடிக்கப்பட்ட 96 சதவீத டீப்ஃபேக் வீடியோக்கள் ஆபாச உள்ளடக்கத்தைக் கொண்டிருந்தன.
இது தவிர பொழுதுபோக்கிற்காகவும் இந்த தொழில்நுட்பம் பயன்படுத்தப்படுகிறது. ஏதோ நடக்கவில்லை என்று பார்வையாளர்களை நம்ப வைப்பதே இந்த டீப்ஃபேக் வீடியோக்களின் நோக்கம்.
பல்வேறு படங்களின் காட்சிகள் டீப்ஃபேக் வீடியோக்களாக பல யூடியூப் சேனல்களில் வெளியிடப்படுகின்றன. எடுத்துக்காட்டாக, ‘தி ஷைனிங்’ படத்தின் பிரபலமான காட்சியின் டீப்ஃபேக் வீடியோ ‘Ctrl Shift face’ யூடியூப் சேனலில் கிடைக்கிறது.
கடந்த சில ஆண்டுகளாக, இந்த தொழில்நுட்பம் ஏக்கத்தை உருவாக்கும் வீடியோக்களுக்காகப் பயன்படுத்தப்படுகிறது. இதில், இறந்த உறவினர்களின் புகைப்படங்களில் முகங்கள் அனிமேஷன் செய்யப்பட்டு, புதிய வீடியோக்கள் தயாரிக்கப்படுகின்றன.
இந்த அம்சத்தைப் பயன்படுத்தி, தொழில்நுட்பத்தின் மூலம் பலர் தங்கள் முன்னோர்கள் மற்றும் வரலாற்று பிரபலங்களை உயிருடன் வீடியோவில் காட்டுகின்றனர்.
டீப்ஃபேக் வீடியோக்கள் இப்போது அரசியலிலும் பயன்படுத்தப்படுகின்றன. தேர்தல்களில் அரசியல் கட்சிகள் டீப்ஃபேக் தொழில்நுட்பம் மூலம் ஒருவரையொருவர் அவதூறாகப் பேசுகின்றனர். யுக்ரேன் -ரஷ்யா போரின் போது டீப்ஃபேக் வீடியோக்களும் வெளியாகின என்பது குறிப்பிடத்தக்கது.

பட மூலாதாரம், Getty Images
யுக்ரேன் போர் தொடங்கிய பின் அந்தப் போர் குறித்தும் பல ‘டீப்ஃபேக்’ வீடியோக்கள் வெளியாயின.
‘டீப்ஃபேக்’ வீடியோக்களை எப்படிக் கண்டறிவது?
டீப்ஃபேக் உள்ளடக்கங்களை அடையாளம் காண, சில குறிப்பிட்ட விஷயங்களில் கவனம் செலுத்துவது மிகவும் முக்கியம்.
அந்த உள்ளடக்கத்தில் காட்டப்படும் முகத்தின் நிலை அவற்றில் முதன்மையானது. டீப்ஃபேக் தொழில்நுட்பம் பெரும்பாலும் முகம் மற்றும் கண்களின் நிலைகளைக் காண்பிக்கும் போது தோல்வியடைகிறது. கண் இமைகள் சிமிட்டுவதும் இதில் அடங்கும்.
கண்கள் மற்றும் மூக்கு ஆகியவை வேறு எங்காவது செல்வதாக நீங்கள் உணர்ந்தால் அல்லது நீண்டநேரம் ஆகியும் வீடியோவில் யாரும் சிமிட்டவில்லை என்றால், இது டீப்ஃபேக் உள்ளடக்கம் என்பதைப் புரிந்து கொள்ளுங்கள்.
டீப்ஃபேக் உள்ளடக்கத்தில் உள்ள வண்ணத்தைப் பார்ப்பதன் மூலம், புகைப்படம் அல்லது வீடியோ போலியானதா என்பதையும் கண்டறிய முடியும்.
நன்றி
Publisher: பிபிசிதமிழ்