லியோ விஜய் ஆடியோ சர்ச்சை: போலி ஆடியோ, வீடியோ எப்படி உருவாகிறது? கண்டுபிடிப்பது எப்படி?

லியோ விஜய் ஆடியோ சர்ச்சை: போலி ஆடியோ, வீடியோ எப்படி உருவாகிறது? கண்டுபிடிப்பது எப்படி?

செயற்கை நுண்ணறிவு, சைபர் குற்றங்கள்

பட மூலாதாரம், Getty Images

சமீபத்தில் நடிகர் விஜய் பேசுவது போல ஒரு ஆடியோ சமூக வலைதளங்களில் பரவியது.

அதில், நடிகர் விஜயின் குரல், காவிரி நதிநீர் விவகாரத்தால், அக்டோபர் 19 வெளியாகவிருக்கும் தனது ‘லியோ’ படத்தை கர்நாடகாவில் திரையிடப் போவதில்லை, என்று பேசியிருந்தது.

இந்த ஆடியோ பரவியதும், நடிகர் விஜயின் தரப்பிலிருந்து, இது போலியானது என்றும், நடிகர் விஜய் அவ்வாறு பேசவில்லை என்றும், அது செயற்கை நுண்ணறிவு (Artificial Intelligence – AI) மென்பொருட்கள் மூலம் உருவாக்கப்பட்டது என்றும் விளக்கமளிக்கப்பட்டது.

செயற்கை நுண்ணறிவு மூலம் ஒரு பிரபலத்தின் குரலோ, தோற்றமோ போலி செய்யப்பட்டு அது சர்ச்சைக்குள்ளான ஒரு சம்பவம் இது.

இதேபோல், சமீப காலங்களில் பிரதமர் மோதியின் குரலில் பிரபலமான இந்தி பாடல்கள் பாடுவது போன்ற ஆடியோக்களும் யூடியூப் போன்ற சமூக வலைதளங்களில் பதிவேற்றப் படுகின்றன.

இதுபோன்ற சினிமா பிரபலங்கள், அரசியல்வாதிகள் ஆகியோரின் குரலில் போலியான ஆடியோக்கள், வீடியோக்கள் எப்படி உருவாக்கப் படுகின்றன, இவற்றிலிருந்து எப்படி விழிப்புடன் இருப்பது எப்படி? இதுபோன்ற குற்றங்களைப் பற்றிச் சட்டம் என்ன சொல்கிறது? இவற்றைப் பாதுகாப்பாகப் பயன்படுத்துவதற்கான நெறிமுறைகள் என்ன?

பிரபலங்களின் குரலில் போலி எப்படி?

இந்தப் போலி ஆடியோக்கள் எப்படி உருவாக்கப்படுகின்றன என்பது பற்றி அறிந்துகொள்ள சைபர் கிரைம் வல்லுநரும், Google News Initiative India Network அமைப்பில் போலிச் செய்திகளைக் கண்டறிவதற்கான பயிற்சியாளராகவும் இருக்கும் முரளிகிருஷ்ணன் சின்னதுரையிடம் பிபிசி தமிழ் பேசியது.

அவர் கூறுகையில், “பொதுவாக சிறிய அளவிலான செயற்கை நுண்ணறிவு மென்பொருட்களை உபயோகித்து ஒருவரின் குரலைப் போலி செய்தால், அதில் அது போலியான குரல் என்பதைக் காட்டிக் கொடுக்கும் வகையில் ‘voice plasticity’ எனும் தன்மை இருக்கும்” என்றார்.

“ஆனால் ஒரு செயற்கை நுண்ணறிவு மென்பொருளில் எந்த அளவு ஒருவரது குரலை உள்ளீடு செய்கிறோமோ, அந்த அளவு அந்த மென்பொருள் அந்நபரது குரலின் தன்மையையும் அசைவுகளையும் உள்வாங்கி, நம்பகத்தன்மையான போலிகளை உருவாக்கித் தரும்,” என்கிறார்.

இதுதான் ‘machine learning’ என்று அழைக்கப்படுகிறது.

பொதுவெளியில், பிரதமர் மோதி, நடிகர் விஜய் போன்ற பிரபலங்களின் குரல் உள்ள ஆடியோக்கள் வீடியோக்கள் ஆகியவை அதிகம் கிடைப்பதால், அவற்றை ஒரு செயற்கை நுண்ணறிவுச் செயலியில் உள்ளிட்டு கிட்டத்தட்ட நம்பும்படியான போலிகளைப் பெறலாம், என்றார்.

“இப்படி நம்பகத்தன்மையான போலி குரல்களை உருவாக்க, அதிகப்படியான பொருட்செலவும் கருவிகளும் தேவைப்படும்,” என்கிறார் முரளிகிருஷ்ணன். பலசமயம் ஏதாவது அரசியல் அல்லது வணிக உள்நோக்கம் இருப்பவர்கள் தான் இதுபோன்ற செயல்களில் ஈடுபடுகிறார்கள் என்கிறார் அவர்.

செயற்கை நுண்ணறிவு, சைபர் குற்றங்கள்

பட மூலாதாரம், Muralikrishnan Chinnadurai

படக்குறிப்பு,

முரளிகிருஷ்ணன் சின்னதுரை, Google News Initiative India Network

போலிகளை எப்படி கண்டுபிடிப்பது?

இதுபோன்ற போலி ஆடியோக்களை, Adobe Audition, Audacity போன்ற audio editing மென்பொருட்களில் பதிவிறக்கி, அவற்றின் அலை வடிவங்களைப் (wave formats) பார்த்தால், அவற்றிலுள்ள ஒழுங்கின்மை அது அசலா போலியா என்பதை ஓரளவு காட்டிக் கொடுத்துவிடும் என்கிறார் முரளிகிருஷ்ணன்.

சைபர் தடயவியல் நிபுணர்கள் இதுபோன்ற ஆடியோக்களை வேகமாக ஓடவிட்டு, மெதுவாக ஓடவிட்டு, அவற்றின் அலை வடிவங்களைப் பார்த்து, அவற்றில் பின்னணியில் கேட்கும் ஓசைகளை வைத்தும் அது அசலா போலியா என்பதை கண்டுபிடிக்கிறார்கள், என்கிறார் அவர்.

“ஆனால் அதற்கும் மேல் ஒரு நிபுணரின் திறன், அனுபவம் ஆகியவையும் முக்கியம். ஒரு ஆடியோவை ஒரு மென்பொருளில் உள்ளீடு செய்வதாலேயே அது அசலா போலியா என்பது உடனே தெரிந்து விடாது. அதைக் கையாள்பவரின் திறனும் அனுபவமும் மிக முக்கியம். அது சாதாரணமாக எல்லோரிடமும் இருக்காது,” என்கிறார் முரளிகிருஷ்ணன்.

மேலும் பேசிய அவர், இணையத்திலோ, சமூக வலைதளங்களிலோ இதுபோன்ற ஆடியோக்களைக் கேட்க நேர்ந்தால், அவற்றின் உண்மைத்தன்மையை அறிந்து கொள்ளாமல், நம்பவோ பகிரவோ வேண்டாம், என்கிறார் முரளிகிருஷ்ணன்.

பொதுமக்களாக நாம் அவற்றின் உண்மைத்தன்மையை அறிந்துகொள்வதற்கு இரண்டு வழிகள் இருக்கின்றன என்கிறார் அவர்.

ஒன்று அந்த ஆடியோவில் சம்பந்தப்பட்டிருக்கும் நபரே அதற்கான விளக்கத்தையோ மறுப்பையோ தெரிவிக்கும் வரை காத்திருப்பது.

அல்லது, அது மணிப்பூர் போல பதற்றமான சூழலில் இருந்து பகிரப்படுகிறது என்றால், சைபர் வல்லுநர்கள் அவற்றைச் சோதித்து அவற்றின் உண்மைத்தன்மையை வெளியிடும் வரை காத்திருப்பது.

செயற்கை நுண்ணறிவு, சைபர் குற்றங்கள்

பட மூலாதாரம், Karthikeyan N

படக்குறிப்பு,

சைபர் சட்ட வல்லுநரும், சென்னை உயர்நீதிமன்ற வழக்கறிஞருமான N கார்த்திகேயன்

சட்டம் என்ன சொல்கிறது?

இதுபோல செயற்கை நுண்ணறிவைப் பயன்படுத்திச் செய்யப்படும் சைபர் குற்றங்கள் பற்றி சட்டம் என்ன சொல்கிறது என்பது பற்றித் தெரிந்துகொள்ள, பிபிசி தமிழ் சைபர் சட்ட வல்லுநரும், சென்னை உயர்நீதிமன்ற வழக்கறிஞருமான N கார்த்திகேயனிடம் பேசியது.

முதலாவதாக, பிரபலங்களின் தோற்றம் மற்றும் குரலைப் போலி செய்பவர்கள் அடையாளத் திருட்டில் (identity theft) ஈடுபடுகிறார்கள் என்றார் கார்த்திகேயன். இதற்கு IT Act-இன் 66(C) பிரிவின் படி மூன்றாண்டுகள் சிறைத் தண்டனை விதிக்கப்படலாம் என்கிறார்.

அதேபோல, பிரபலங்களின் குரல் அல்லது தோற்றத்தைப் பயன்படுத்தி ஒரு செய்தியையோ கருத்தையோ பகிரும் போது அது ஆள் மாறாட்டம் (impersonation) எனும் குற்றத்தின் கீழ் வரும் என்கிறார் அவர். இதற்கு IT Act-இன் 66(D) பிரிவின் படி மூன்றாண்டுகள் சிறைத் தண்டனை விதிக்கப்படலாம் என்கிறார்.

மேலும் அவர் கூறுகையில், “AI செயலிகளைப் பயன்படுத்தி படங்கள், ஆடியோ, வீடியோ போன்றவற்றை உருவாக்கி Instagram, YouTube போன்ற சமூக வலைதளங்களில் பதிவேற்றுவதற்கு இணையம் தேவைப்படுகிறது. அந்த இணைய இணைப்பின் IP Address-ஐப் பயன்படுத்தி அதை பதிவேற்றியவர் எப்பகுதியில் வசிக்கிறார் என்பதைக் கண்டுபிடித்துவிடலாம்,” என்றார்.

இதுபோன்ற போலி ஆடியோ, வீடியோக்களை உருவாக்குபவர்கள் மட்டுமல்ல, அவற்றைப் உருவாக்கத் தூண்டுபவர்களுக்கும், பகிர்பவர்களுக்கும், காட்டுபவர்களுக்கும் இச்சட்டத்தின் பிரிவுகளின் கீழ் தண்டனைகள் உண்டு என்கிறார் கார்த்திகேயன்.

“இதுபோன்ற செயல்களில் ஈடுபடுபவர்கள் இச்சட்டத்தைப் பற்றித் தெரியாது என்று சொல்வது அவர்களைக் குற்றமற்றவர்களாக்காது,” என்கிறார் அவர்.

செயற்கை நுண்ணறிவு, சைபர் குற்றங்கள்

பட மூலாதாரம், Getty Images

படக்குறிப்பு,

AI தொழில்நுட்பம் வெகு துரிதமாக மேம்பட்டு வருகிறது. அதேபோல அவற்றைக் கண்டுபிடிக்கும் உபகரணங்கள் — வன்பொருள் மற்றும் மென்பொருள் — ஆகியவையும் மேம்படுத்தப்பட்டுப் பரவலாக்கப்பட வேண்டும்

‘போலிகளை கண்டுபிடிக்க கட்டமைப்பை வலுப்படுத்த வேண்டும்’

இதுபோன்ற போலி ஆடியோ வீடியோக்களைக் கண்டுபிடிக்கத் தேவையான கட்டமைப்பை மாநில அளவில் உருவாக்க வேண்டும் என்கிறார் கார்த்திகேயன்.

“இதுபோன்ற குற்றங்களுக்கான தண்டனைகள் சட்டத்தில் உண்டு. ஆனால் போலி ஆடியோ, வீடியோக்களைக் கண்டுபிடிக்கும் கட்டமைப்பு இன்னும் வலுப்படுத்த வேண்டும் என்கிறார் அவர்.

AI தொழில்நுட்பம் வெகு துரிதமாக மேம்பட்டு வருகிறது. அதேபோல அவற்றைக் கண்டுபிடிக்கும் உபகரணங்கள் — வன்பொருள் மற்றும் மென்பொருள் — ஆகியவையும் மேம்படுத்தப்பட்டுப் பரவலாக்கப்பட வேண்டும் என்கிறார் அவர்.

உதாரணத்திற்கு, தமிழகத்தில் எங்கு நடக்கும் சைபர் குற்றங்களுக்கும் இப்போது சென்னையிலுள்ள சைபர் தடயவியல் ஆய்வகத்தைத் தான் சார்ந்திருக்க வேண்டியிருக்கிறது. இதனால் நேரம் விரயமாகிறது, என்கிறார்.

இந்தியாவில் தெலங்கானா மாநிலத்தில் உயர் ரக சைபர் தடயவியல் உபகரணங்கள் உள்ளதாகக் கூறுகிறார் கார்த்திகேயன்.

செயற்கை நுண்ணறிவு, சைபர் குற்றங்கள்

பட மூலாதாரம், Vinod Arumugam

படக்குறிப்பு,

AI தொழில்நுட்பத்தின் நெறிமுறை மற்றும் தார்மீகக் கோணங்களைப் பற்றிப் பேசினார் சைபர் சமூக ஆர்வலரான வினோத் ஆறுமுகம்

‘இந்தத் தொழில்நுட்பம் ஒரு கத்தி போன்றது’

AI தொழில்நுட்பத்தின் நெறிமுறை மற்றும் தார்மீகக் கோணங்களைப் பற்றிப் பேசிய சைபர் சமூக ஆர்வலரான வினோத் ஆறுமுகம், இத்தொழில்நுட்பம் ஒரு கத்தி போன்றது, அதை நன்மைக்கும் பயன்படுத்தலாம், ஆனால் இதுபற்றிச் சரியான விழிப்புணர்வு இல்லையென்றால், அது அபாயகரமாக முடிந்துவிடும் என்கிறார்.

அவர் கூறுகையில், இதுபோன்ற AI தொழில்நுட்பக் கருவிகளை கேளிக்கைக்காகவும் பொழுதுபோக்குக்காகவும் சரியான முறையில் பயன்படுத்தலாம் என்கிறார்.

“உதாரணத்திற்கு, ஒரு திரைப்படத்தில், AI தொழில்நுட்பம், deepfake போன்றவறைப் பயன்படுத்தி, MGR நடனமாடுவது போலக் காட்சிப்படுத்தலாம், ஒரு பாடலை சிவாஜி கணேசன் பாடினால் எப்படியிருக்கும் என்று செய்து பார்க்கலாம், அல்லது ஒரு புத்தகத்தின் audio book-ஐ, வேறொரு பிரபலத்தின் குரலில் வாசிப்பதுபோல உருவாக்கலாம்,” என்கிறார்.

ஆனால், முக்கியமாக இவற்றுக்குச் அப்பிரபலங்களிடமோ, அவர்களுக்குச் சம்பந்தப்பட்டச் சட்டரீதியான பிரதிநிதியிடமோ சரியான அனுமதி பெற்றே செய்யவேண்டும் என்கிறார்.

“உதாரணத்திற்கு, AI தொழில்நுட்பம் மூலம் பிரதமர் மோதியின் குரலில் பிரபலமான பாடல்களை உருவாக்கி சிலர் பகிர்ந்து வருகின்றனர். இது சட்டப்படி குற்றம். அந்நபரிடம் அனுமதி வாங்காமல் இப்படிச் செய்யக்கூடாது,” என்கிறார் அவர்.

இது பொழுதுபோக்குக்காகச் செய்யப்பட்டிருந்தாலும் குற்றம் தான் என்கிறார் வினோத்.

செயற்கை நுண்ணறிவு, சைபர் குற்றங்கள்

பட மூலாதாரம், Getty Images

படக்குறிப்பு,

‘AI தொழில்நுட்பக் கருவிகளை கேளிக்கைக்காகவும் பொழுதுபோக்குக்காகவும் சரியான முறையில் பயன்படுத்தலாம்’

‘விதிமுறைகளும் விழிப்புணர்வும் தேவை’

இதுபோன்ற AI தொழில்நுட்பச் செயலிகள் இன்று மக்களிடம் பரவலாகச் சென்று சேர்ந்து இருக்கிறது. ஆனால் அவற்றைப் பயன்படுத்துவதற்கான விதிமுறைகளும், சட்டப்பூர்வமானப் பயன்பாட்டுக் கையேடும் உருவாக்கப்படவில்லை, அது மக்களுக்கும் எடுத்துச் சொல்லப்படவில்லை என்கிறார் வினோத்.

இதனால் பல இளைஞர்கள் இதுபற்றிய விழிப்புணர்வு இல்லாமலேயே இதுபோன்ற செயல்களில் ஈடுபட்டு, வழக்குகளில் சிக்கி, வாழ்க்கையைத் தொலைக்கும் சாத்தியமும் உண்டு என்கிறார்.

“அரசங்கமும், ஊடங்களும் AI தொழில்நுட்பம், deepfake, போன்றவற்றை எப்படிப் பாதுகாப்பாக, சட்ட வரையறைக்குட்பட்டுப் பயன்படுத்துவது என்பது பற்றிப் பொதுமக்களுக்கு விழிப்புணர்வு வழங்க வேண்டும்,” என்கிறார் வினோத்.

Facebook
Facebook
fb-share-icon
Telegram
WhatsApp
TekTamil.com
Disclaimer: This story is auto-aggregated by a computer program and has not been created or edited by TekTamil.
நன்றி
Publisher: பிபிசிதமிழ்

Leave a Reply

Your email address will not be published. Required fields are marked *