ராஷ்மிகா மந்தனாவின் ‘டீப் ஃபேக்’ வீடியோ: இதுபோன்ற போலி காணொளிகளை எப்படி கண்டறிவது?

ராஷ்மிகா மந்தனாவின் 'டீப் ஃபேக்' வீடியோ: இதுபோன்ற போலி காணொளிகளை எப்படி கண்டறிவது?

ராஷ்மிகா மந்தனா

பட மூலாதாரம், Getty Images

படக்குறிப்பு,

ராஷ்மிகா மந்தனா குறித்து வெளியான ‘டீப் ஃபேக்’ வீடியோ, பெண்களிடையே அச்சத்தை ஏற்படுத்தியுள்ளது.

நடிகை ராஷ்மிகா மந்தனா குறித்து தற்போது ஏராளமான செய்திகள் வெளியாகின்றன. ‘டீப் ஃபேக்’ தொழில்நுட்பத்துடன் வெளியான ஒரு வைரல் வீடியோதான் அவர் செய்திகளில் அதிகமாக இடம்பெறக் காரணமாக மாறியுள்ளது. இந்நிலையில், ‘டீப் ந்ஃபேக்’ தொழில்நுட்பம் குறித்துப் புதிய விவாதமும் தொடங்கியுள்ளது.

‘புஷ்பா’ போன்ற வெற்றிப் படங்களின் மூலம் முத்திரை பதித்த ராஷ்மிகா மந்தனாவை வேறொரு பெண் மூலம் இந்த ‘டீப் ஃபேக்’ வீடியோ காட்டுவது குறித்த விவாதம் தற்போது ஊடகங்களில் அதிக எண்ணிக்கையில் பகிரப்படுகிறது.

இந்த வீடியோவில் காணப்படும் பெண்ணை டீப் ஃபேக் தொழில்நுட்பத்தில் ராஷ்மிகா மந்தனாவாக காட்ட முயற்சி மேற்கொள்ளப்பட்டது.

இதற்கு ‘மிகுந்த வருத்தம்’ தெரிவித்த ராஷ்மிகா, தன்னைப் போல் வேறு யாரும் பாதிக்கப்படாமல் இருக்க விரைவில் இந்த பிரச்னைக்குத் தீர்வு காணுமாறு வேண்டுகோள் விடுத்துள்ளார்.

“உண்மையாக, இதுபோன்ற பிரச்னை எதுவும், எனக்கு மட்டுமல்ல, நம் அனைவருக்கும் மிகந்த பயத்தை அளித்துள்ளது,” என்று ராஷ்மிகா தனது எக்ஸ் சமூக ஊடக பக்கத்தில் எழுதியுள்ளார்.

இன்று தொழில்நுட்பம் தவறாகப் பயன்படுத்தப்படும் விதம் தனக்கு மட்டுமின்றி பலருக்கும் பெரும் இழப்பை ஏற்படுத்தும் என்றும் அதில் அவர் மேலும் கூறியுள்ளார்.

ராஷ்மிகாவின் சமூக ஊடக பதிவில், “இன்று எனது பாதுகாவலராகவும் எனக்கு ஆதரவாகவும் இருக்கும் என் குடும்பத்தினர், நண்பர்கள் மற்றும் நலம் விரும்பிகளுக்கு ஒரு பெண்ணாகவும், நடிகையாகவும் நன்றிகளைத் தெரிவித்துக்கொள்கிறேன்,” என எழுதியுள்ளார்.

“ஆனால் நான் பள்ளியிலோ அல்லது கல்லூரியிலோ படிக்கும்போது இதுபோன்ற சம்பவம் நடந்திருந்தால், நான் அதை எப்படி எதிர்கொண்டிருப்பேன் என்று என்னால் கற்பனைகூடச் செய்து பார்க்க முடியாது.”

இந்த வீடியோவை மேற்கோள் காட்டி நடிகர் அமிதாப் பச்சன், இந்த விவகாரத்தில் சட்டப்படி நடவடிக்கை எடுக்க வேண்டும் என்று வலியுறுத்தியுள்ளார்.

ராஷ்மிகா மந்தனா

பட மூலாதாரம், Getty Images

படக்குறிப்பு,

‘டீப் ஃபேக்’ தொழில்நுட்பத்தில் பல்வேறு துறைகளைச் சேர்ந்த பிரபலங்கள் குறித்த போலி வீடியோக்கள் சமூக ஊடகங்களில் பகிரப்பட்டு வருகின்றன.

அதே நேரத்தில், சமூக ஊடகங்கள் தங்கள் தளங்களில் தவறான தகவல்கள் பகிரப்படாமல் இருப்பதை உறுதி செய்ய வேண்டும் என்று மத்திய அமைச்சர் ராஜீவ் சந்திரசேகர் கூறியுள்ளார்.

இந்த வைரலான வீடியோ டீப் ஃபேக் தொழில்நுட்பம் மூலம் உருவாக்கப்பட்டுள்ளது. இதைத் தகவல் சரிபார்ப்பு இணையதளமான ஆல்ட் நியூஸ் (Alt News) வெளியிட்டுள்ளது.

ஆல்ட் நியூஸ் (Alt News) உடன் தொடர்புடைய அபிஷேக், தனது எக்ஸ் பக்கத்தில், “இந்த வீடியோ டீப் ஃபேக் தொழில்நுட்பத்தைப் பயன்படுத்தி உருவாக்கப்பட்டுள்ளது என்பதுடன், வீடியோவில் காணப்பட்ட பெண் ராஷ்மிகா மந்தனா அல்ல,” என்று கூறினார்.

‘டீப் ஃபேக்’ தொழில்நுட்பம் என்றால் என்ன?

டீப்ஃபேக் என்பது வீடியோக்கள், படங்கள் மற்றும் ஆடியோக்களை செயற்கை நுண்ணறிவைப் பயன்படுத்திப் பதிவு செய்யும் ஒரு தொழில்நுட்பம்.

இத்தொழில்நுட்பத்தின் மூலம், மற்றொருவரின் புகைப்படம் அல்லது வீடியோவை அதில் வேறொருவரின் முகத்தைப் பயன்படுத்தி மாற்றலாம்.

எளிமையான மொழியில், இந்த நுட்பத்தில் செயற்கை நுண்ணறிவைப் பயன்படுத்தி ஒரு போலி வீடியோவை உருவாக்க முடியும். இது உண்மையான வீடியோவைப் போல் தெரியும். ஆனால் அது போலியானது. இந்தக் காரணத்தினால்தான் இதற்கு ‘டீப்ஃபேக்’ எனப் பெயரிடப்பட்டுள்ளது.

இந்த ‘டீப் ஃபேக்’ என்ற சொல், ஏற்கெனவே உள்ள தகவல்களின் படி, 2017 முதல் பயன்படுத்தப்பட்டு வருகிறது. ஒரு ரெடிட் (Reddit) பயனர் ஆபாச வீடியோக்களில் முகத்தின் அடையாளத்தை மாற்ற இந்த தொழில்நுட்பத்தைப் பயன்படுத்தினார். பின்னர் ரெடிட், ‘டீப்ஃபேக் ஆபாசங்களைத்’ தடை செய்தது.

ராஷ்மிகா மந்தனா

பட மூலாதாரம், OTHER

படக்குறிப்பு,

‘டீப்ஃபேக்’ உள்ளடக்கங்களைத் தயாரிப்பது மிகவும் சிக்கலானது என்பதால் கணினிக் கல்வியில் தேர்ச்சி பெற்றிருப்பது அவசியம்.

இந்தத் தொழில்நுட்பம் எவ்வாறு செயல்படுகிறது?

‘டீப் ஃபேக்’ என்பது மிகவும் சிக்கலான தொழில்நுட்பம். இதற்கு கணினிக் கல்வியில் தேர்ச்சி பெற்றிருக்க வேண்டும்.

டீப்ஃபேக் பதிவுகள் ஒன்றுடன் ஒன்று போட்டியிடும் இரண்டு அல்காரிதம்களைப் பயன்படுத்தி உருவாக்கப்படுகின்றன. ஒன்று டிகோடர் என்றும் மற்றொன்று என்கோடர் என்றும் அழைக்கப்படுகிறது.

இதில், போலியா உள்ளடக்கத்தைத் தயாரிப்பவர் அது உண்மையானதா அல்லது போலியானதா என்பதைக் கண்டறிய டிகோடரை கேட்கிறார்.

ஒவ்வொரு முறையும் டிகோடர் உள்ளடக்கத்தை உண்மையானது அல்லது போலியானது என சரியாகக் கண்டறியும்போது, ​​அது அந்தத் தகவலை என்கோடருக்கு அனுப்பி, தவறுகளைச் சரி செய்வதன் மூலம் அடுத்த டீப்ஃபேக் உள்ளடக்கத்தை மேம்படுத்துகிறது.

இந்த இரண்டு செயல்முறைகளையும் ஒன்றாக இணைப்பதன் மூலம் GAN எனப்படும் ஒரு உருவாக்கும் எதிரி நெட்வொர்க் உருவாக்கப்படுகிறது.

ராஷ்மிகா மந்தனா

பட மூலாதாரம், MYHERITAGE

படக்குறிப்பு,

‘டீப் ஃபேக்’ தொழில் நுட்பத்தில் உருவாக்கப்படும் போலி வீடியோக்கள் கடந்த பல ஆண்டுகளாகவே உலகம் முழுவதும் பிரபலமடைந்து வருகிறது.

‘டீப் ஃபேக்’ உள்ளடக்கங்கள் எங்கே பயன்படுத்தப்படுகின்றன?

ஏற்கெனவே இருக்கும் தகவல்களின்படி, இந்தத் தொழில்நுட்பம் ஆபாசமான உள்ளடக்கத்தை உருவாக்குவதற்காகத் தான் முதன் முதலாகத் தொடங்கப்பட்டது.

இந்த டீப் ஃபேக் நுட்பம் ஆபாசத்தில் அதிகம் பயன்படுத்தப்பட்டு வருகிறது. திரைப்பட நடிகர், நடிகைகளின் முகத்தை மாற்றித் தயாரிக்கப்படும் ஆபாச உள்ளடக்கங்களை வெளியிடுவதற்காகவே செயல்படும் பிரத்யேக தளங்களில் வெளியிடப்படுகின்றன.

டீப் ட்ரேஸ் (DeepTrace) அளித்துள்ள தகவல்களின்படி, 2019இல் ஆன்லைனில் கண்டுபிடிக்கப்பட்ட 96 சதவீத டீப்ஃபேக் வீடியோக்கள் ஆபாச உள்ளடக்கத்தைக் கொண்டிருந்தன.

இது தவிர பொழுதுபோக்கிற்காகவும் இந்த தொழில்நுட்பம் பயன்படுத்தப்படுகிறது. ஏதோ நடக்கவில்லை என்று பார்வையாளர்களை நம்ப வைப்பதே இந்த டீப்ஃபேக் வீடியோக்களின் நோக்கம்.

பல்வேறு படங்களின் காட்சிகள் டீப்ஃபேக் வீடியோக்களாக பல யூடியூப் சேனல்களில் வெளியிடப்படுகின்றன. எடுத்துக்காட்டாக, ‘தி ஷைனிங்’ படத்தின் பிரபலமான காட்சியின் டீப்ஃபேக் வீடியோ ‘Ctrl Shift face’ யூடியூப் சேனலில் கிடைக்கிறது.

கடந்த சில ஆண்டுகளாக, இந்த தொழில்நுட்பம் ஏக்கத்தை உருவாக்கும் வீடியோக்களுக்காகப் பயன்படுத்தப்படுகிறது. இதில், இறந்த உறவினர்களின் புகைப்படங்களில் முகங்கள் அனிமேஷன் செய்யப்பட்டு, புதிய வீடியோக்கள் தயாரிக்கப்படுகின்றன.

இந்த அம்சத்தைப் பயன்படுத்தி, தொழில்நுட்பத்தின் மூலம் பலர் தங்கள் முன்னோர்கள் மற்றும் வரலாற்று பிரபலங்களை உயிருடன் வீடியோவில் காட்டுகின்றனர்.

டீப்ஃபேக் வீடியோக்கள் இப்போது அரசியலிலும் பயன்படுத்தப்படுகின்றன. தேர்தல்களில் அரசியல் கட்சிகள் டீப்ஃபேக் தொழில்நுட்பம் மூலம் ஒருவரையொருவர் அவதூறாகப் பேசுகின்றனர். யுக்ரேன் -ரஷ்யா போரின் போது டீப்ஃபேக் வீடியோக்களும் வெளியாகின என்பது குறிப்பிடத்தக்கது.

ராஷ்மிகா மந்தனா

பட மூலாதாரம், Getty Images

படக்குறிப்பு,

யுக்ரேன் போர் தொடங்கிய பின் அந்தப் போர் குறித்தும் பல ‘டீப்ஃபேக்’ வீடியோக்கள் வெளியாயின.

‘டீப்ஃபேக்’ வீடியோக்களை எப்படிக் கண்டறிவது?

டீப்ஃபேக் உள்ளடக்கங்களை அடையாளம் காண, சில குறிப்பிட்ட விஷயங்களில் கவனம் செலுத்துவது மிகவும் முக்கியம்.

அந்த உள்ளடக்கத்தில் காட்டப்படும் முகத்தின் நிலை அவற்றில் முதன்மையானது. டீப்ஃபேக் தொழில்நுட்பம் பெரும்பாலும் முகம் மற்றும் கண்களின் நிலைகளைக் காண்பிக்கும் போது தோல்வியடைகிறது. கண் இமைகள் சிமிட்டுவதும் இதில் அடங்கும்.

கண்கள் மற்றும் மூக்கு ஆகியவை வேறு எங்காவது செல்வதாக நீங்கள் உணர்ந்தால் அல்லது நீண்டநேரம் ஆகியும் வீடியோவில் யாரும் சிமிட்டவில்லை என்றால், இது டீப்ஃபேக் உள்ளடக்கம் என்பதைப் புரிந்து கொள்ளுங்கள்.

டீப்ஃபேக் உள்ளடக்கத்தில் உள்ள வண்ணத்தைப் பார்ப்பதன் மூலம், புகைப்படம் அல்லது வீடியோ போலியானதா என்பதையும் கண்டறிய முடியும்.

Facebook
Facebook
fb-share-icon
Telegram
WhatsApp
TekTamil.com
Disclaimer: This story is auto-aggregated by a computer program and has not been created or edited by TekTamil.
நன்றி
Publisher: பிபிசிதமிழ்

Leave a Reply

Your email address will not be published. Required fields are marked *