பட மூலாதாரம், Getty Images
சமீபத்தில் நடிகர் விஜய் பேசுவது போல ஒரு ஆடியோ சமூக வலைதளங்களில் பரவியது.
அதில், நடிகர் விஜயின் குரல், காவிரி நதிநீர் விவகாரத்தால், அக்டோபர் 19 வெளியாகவிருக்கும் தனது ‘லியோ’ படத்தை கர்நாடகாவில் திரையிடப் போவதில்லை, என்று பேசியிருந்தது.
இந்த ஆடியோ பரவியதும், நடிகர் விஜயின் தரப்பிலிருந்து, இது போலியானது என்றும், நடிகர் விஜய் அவ்வாறு பேசவில்லை என்றும், அது செயற்கை நுண்ணறிவு (Artificial Intelligence – AI) மென்பொருட்கள் மூலம் உருவாக்கப்பட்டது என்றும் விளக்கமளிக்கப்பட்டது.
செயற்கை நுண்ணறிவு மூலம் ஒரு பிரபலத்தின் குரலோ, தோற்றமோ போலி செய்யப்பட்டு அது சர்ச்சைக்குள்ளான ஒரு சம்பவம் இது.
இதேபோல், சமீப காலங்களில் பிரதமர் மோதியின் குரலில் பிரபலமான இந்தி பாடல்கள் பாடுவது போன்ற ஆடியோக்களும் யூடியூப் போன்ற சமூக வலைதளங்களில் பதிவேற்றப் படுகின்றன.
இதுபோன்ற சினிமா பிரபலங்கள், அரசியல்வாதிகள் ஆகியோரின் குரலில் போலியான ஆடியோக்கள், வீடியோக்கள் எப்படி உருவாக்கப் படுகின்றன, இவற்றிலிருந்து எப்படி விழிப்புடன் இருப்பது எப்படி? இதுபோன்ற குற்றங்களைப் பற்றிச் சட்டம் என்ன சொல்கிறது? இவற்றைப் பாதுகாப்பாகப் பயன்படுத்துவதற்கான நெறிமுறைகள் என்ன?
பிரபலங்களின் குரலில் போலி எப்படி?
இந்தப் போலி ஆடியோக்கள் எப்படி உருவாக்கப்படுகின்றன என்பது பற்றி அறிந்துகொள்ள சைபர் கிரைம் வல்லுநரும், Google News Initiative India Network அமைப்பில் போலிச் செய்திகளைக் கண்டறிவதற்கான பயிற்சியாளராகவும் இருக்கும் முரளிகிருஷ்ணன் சின்னதுரையிடம் பிபிசி தமிழ் பேசியது.
அவர் கூறுகையில், “பொதுவாக சிறிய அளவிலான செயற்கை நுண்ணறிவு மென்பொருட்களை உபயோகித்து ஒருவரின் குரலைப் போலி செய்தால், அதில் அது போலியான குரல் என்பதைக் காட்டிக் கொடுக்கும் வகையில் ‘voice plasticity’ எனும் தன்மை இருக்கும்” என்றார்.
“ஆனால் ஒரு செயற்கை நுண்ணறிவு மென்பொருளில் எந்த அளவு ஒருவரது குரலை உள்ளீடு செய்கிறோமோ, அந்த அளவு அந்த மென்பொருள் அந்நபரது குரலின் தன்மையையும் அசைவுகளையும் உள்வாங்கி, நம்பகத்தன்மையான போலிகளை உருவாக்கித் தரும்,” என்கிறார்.
இதுதான் ‘machine learning’ என்று அழைக்கப்படுகிறது.
பொதுவெளியில், பிரதமர் மோதி, நடிகர் விஜய் போன்ற பிரபலங்களின் குரல் உள்ள ஆடியோக்கள் வீடியோக்கள் ஆகியவை அதிகம் கிடைப்பதால், அவற்றை ஒரு செயற்கை நுண்ணறிவுச் செயலியில் உள்ளிட்டு கிட்டத்தட்ட நம்பும்படியான போலிகளைப் பெறலாம், என்றார்.
“இப்படி நம்பகத்தன்மையான போலி குரல்களை உருவாக்க, அதிகப்படியான பொருட்செலவும் கருவிகளும் தேவைப்படும்,” என்கிறார் முரளிகிருஷ்ணன். பலசமயம் ஏதாவது அரசியல் அல்லது வணிக உள்நோக்கம் இருப்பவர்கள் தான் இதுபோன்ற செயல்களில் ஈடுபடுகிறார்கள் என்கிறார் அவர்.
பட மூலாதாரம், Muralikrishnan Chinnadurai
முரளிகிருஷ்ணன் சின்னதுரை, Google News Initiative India Network
போலிகளை எப்படி கண்டுபிடிப்பது?
இதுபோன்ற போலி ஆடியோக்களை, Adobe Audition, Audacity போன்ற audio editing மென்பொருட்களில் பதிவிறக்கி, அவற்றின் அலை வடிவங்களைப் (wave formats) பார்த்தால், அவற்றிலுள்ள ஒழுங்கின்மை அது அசலா போலியா என்பதை ஓரளவு காட்டிக் கொடுத்துவிடும் என்கிறார் முரளிகிருஷ்ணன்.
சைபர் தடயவியல் நிபுணர்கள் இதுபோன்ற ஆடியோக்களை வேகமாக ஓடவிட்டு, மெதுவாக ஓடவிட்டு, அவற்றின் அலை வடிவங்களைப் பார்த்து, அவற்றில் பின்னணியில் கேட்கும் ஓசைகளை வைத்தும் அது அசலா போலியா என்பதை கண்டுபிடிக்கிறார்கள், என்கிறார் அவர்.
“ஆனால் அதற்கும் மேல் ஒரு நிபுணரின் திறன், அனுபவம் ஆகியவையும் முக்கியம். ஒரு ஆடியோவை ஒரு மென்பொருளில் உள்ளீடு செய்வதாலேயே அது அசலா போலியா என்பது உடனே தெரிந்து விடாது. அதைக் கையாள்பவரின் திறனும் அனுபவமும் மிக முக்கியம். அது சாதாரணமாக எல்லோரிடமும் இருக்காது,” என்கிறார் முரளிகிருஷ்ணன்.
மேலும் பேசிய அவர், இணையத்திலோ, சமூக வலைதளங்களிலோ இதுபோன்ற ஆடியோக்களைக் கேட்க நேர்ந்தால், அவற்றின் உண்மைத்தன்மையை அறிந்து கொள்ளாமல், நம்பவோ பகிரவோ வேண்டாம், என்கிறார் முரளிகிருஷ்ணன்.
பொதுமக்களாக நாம் அவற்றின் உண்மைத்தன்மையை அறிந்துகொள்வதற்கு இரண்டு வழிகள் இருக்கின்றன என்கிறார் அவர்.
ஒன்று அந்த ஆடியோவில் சம்பந்தப்பட்டிருக்கும் நபரே அதற்கான விளக்கத்தையோ மறுப்பையோ தெரிவிக்கும் வரை காத்திருப்பது.
அல்லது, அது மணிப்பூர் போல பதற்றமான சூழலில் இருந்து பகிரப்படுகிறது என்றால், சைபர் வல்லுநர்கள் அவற்றைச் சோதித்து அவற்றின் உண்மைத்தன்மையை வெளியிடும் வரை காத்திருப்பது.
பட மூலாதாரம், Karthikeyan N
சைபர் சட்ட வல்லுநரும், சென்னை உயர்நீதிமன்ற வழக்கறிஞருமான N கார்த்திகேயன்
சட்டம் என்ன சொல்கிறது?
இதுபோல செயற்கை நுண்ணறிவைப் பயன்படுத்திச் செய்யப்படும் சைபர் குற்றங்கள் பற்றி சட்டம் என்ன சொல்கிறது என்பது பற்றித் தெரிந்துகொள்ள, பிபிசி தமிழ் சைபர் சட்ட வல்லுநரும், சென்னை உயர்நீதிமன்ற வழக்கறிஞருமான N கார்த்திகேயனிடம் பேசியது.
முதலாவதாக, பிரபலங்களின் தோற்றம் மற்றும் குரலைப் போலி செய்பவர்கள் அடையாளத் திருட்டில் (identity theft) ஈடுபடுகிறார்கள் என்றார் கார்த்திகேயன். இதற்கு IT Act-இன் 66(C) பிரிவின் படி மூன்றாண்டுகள் சிறைத் தண்டனை விதிக்கப்படலாம் என்கிறார்.
அதேபோல, பிரபலங்களின் குரல் அல்லது தோற்றத்தைப் பயன்படுத்தி ஒரு செய்தியையோ கருத்தையோ பகிரும் போது அது ஆள் மாறாட்டம் (impersonation) எனும் குற்றத்தின் கீழ் வரும் என்கிறார் அவர். இதற்கு IT Act-இன் 66(D) பிரிவின் படி மூன்றாண்டுகள் சிறைத் தண்டனை விதிக்கப்படலாம் என்கிறார்.
மேலும் அவர் கூறுகையில், “AI செயலிகளைப் பயன்படுத்தி படங்கள், ஆடியோ, வீடியோ போன்றவற்றை உருவாக்கி Instagram, YouTube போன்ற சமூக வலைதளங்களில் பதிவேற்றுவதற்கு இணையம் தேவைப்படுகிறது. அந்த இணைய இணைப்பின் IP Address-ஐப் பயன்படுத்தி அதை பதிவேற்றியவர் எப்பகுதியில் வசிக்கிறார் என்பதைக் கண்டுபிடித்துவிடலாம்,” என்றார்.
இதுபோன்ற போலி ஆடியோ, வீடியோக்களை உருவாக்குபவர்கள் மட்டுமல்ல, அவற்றைப் உருவாக்கத் தூண்டுபவர்களுக்கும், பகிர்பவர்களுக்கும், காட்டுபவர்களுக்கும் இச்சட்டத்தின் பிரிவுகளின் கீழ் தண்டனைகள் உண்டு என்கிறார் கார்த்திகேயன்.
“இதுபோன்ற செயல்களில் ஈடுபடுபவர்கள் இச்சட்டத்தைப் பற்றித் தெரியாது என்று சொல்வது அவர்களைக் குற்றமற்றவர்களாக்காது,” என்கிறார் அவர்.
பட மூலாதாரம், Getty Images
AI தொழில்நுட்பம் வெகு துரிதமாக மேம்பட்டு வருகிறது. அதேபோல அவற்றைக் கண்டுபிடிக்கும் உபகரணங்கள் — வன்பொருள் மற்றும் மென்பொருள் — ஆகியவையும் மேம்படுத்தப்பட்டுப் பரவலாக்கப்பட வேண்டும்
‘போலிகளை கண்டுபிடிக்க கட்டமைப்பை வலுப்படுத்த வேண்டும்’
இதுபோன்ற போலி ஆடியோ வீடியோக்களைக் கண்டுபிடிக்கத் தேவையான கட்டமைப்பை மாநில அளவில் உருவாக்க வேண்டும் என்கிறார் கார்த்திகேயன்.
“இதுபோன்ற குற்றங்களுக்கான தண்டனைகள் சட்டத்தில் உண்டு. ஆனால் போலி ஆடியோ, வீடியோக்களைக் கண்டுபிடிக்கும் கட்டமைப்பு இன்னும் வலுப்படுத்த வேண்டும் என்கிறார் அவர்.
AI தொழில்நுட்பம் வெகு துரிதமாக மேம்பட்டு வருகிறது. அதேபோல அவற்றைக் கண்டுபிடிக்கும் உபகரணங்கள் — வன்பொருள் மற்றும் மென்பொருள் — ஆகியவையும் மேம்படுத்தப்பட்டுப் பரவலாக்கப்பட வேண்டும் என்கிறார் அவர்.
உதாரணத்திற்கு, தமிழகத்தில் எங்கு நடக்கும் சைபர் குற்றங்களுக்கும் இப்போது சென்னையிலுள்ள சைபர் தடயவியல் ஆய்வகத்தைத் தான் சார்ந்திருக்க வேண்டியிருக்கிறது. இதனால் நேரம் விரயமாகிறது, என்கிறார்.
இந்தியாவில் தெலங்கானா மாநிலத்தில் உயர் ரக சைபர் தடயவியல் உபகரணங்கள் உள்ளதாகக் கூறுகிறார் கார்த்திகேயன்.
பட மூலாதாரம், Vinod Arumugam
AI தொழில்நுட்பத்தின் நெறிமுறை மற்றும் தார்மீகக் கோணங்களைப் பற்றிப் பேசினார் சைபர் சமூக ஆர்வலரான வினோத் ஆறுமுகம்
‘இந்தத் தொழில்நுட்பம் ஒரு கத்தி போன்றது’
AI தொழில்நுட்பத்தின் நெறிமுறை மற்றும் தார்மீகக் கோணங்களைப் பற்றிப் பேசிய சைபர் சமூக ஆர்வலரான வினோத் ஆறுமுகம், இத்தொழில்நுட்பம் ஒரு கத்தி போன்றது, அதை நன்மைக்கும் பயன்படுத்தலாம், ஆனால் இதுபற்றிச் சரியான விழிப்புணர்வு இல்லையென்றால், அது அபாயகரமாக முடிந்துவிடும் என்கிறார்.
அவர் கூறுகையில், இதுபோன்ற AI தொழில்நுட்பக் கருவிகளை கேளிக்கைக்காகவும் பொழுதுபோக்குக்காகவும் சரியான முறையில் பயன்படுத்தலாம் என்கிறார்.
“உதாரணத்திற்கு, ஒரு திரைப்படத்தில், AI தொழில்நுட்பம், deepfake போன்றவறைப் பயன்படுத்தி, MGR நடனமாடுவது போலக் காட்சிப்படுத்தலாம், ஒரு பாடலை சிவாஜி கணேசன் பாடினால் எப்படியிருக்கும் என்று செய்து பார்க்கலாம், அல்லது ஒரு புத்தகத்தின் audio book-ஐ, வேறொரு பிரபலத்தின் குரலில் வாசிப்பதுபோல உருவாக்கலாம்,” என்கிறார்.
ஆனால், முக்கியமாக இவற்றுக்குச் அப்பிரபலங்களிடமோ, அவர்களுக்குச் சம்பந்தப்பட்டச் சட்டரீதியான பிரதிநிதியிடமோ சரியான அனுமதி பெற்றே செய்யவேண்டும் என்கிறார்.
“உதாரணத்திற்கு, AI தொழில்நுட்பம் மூலம் பிரதமர் மோதியின் குரலில் பிரபலமான பாடல்களை உருவாக்கி சிலர் பகிர்ந்து வருகின்றனர். இது சட்டப்படி குற்றம். அந்நபரிடம் அனுமதி வாங்காமல் இப்படிச் செய்யக்கூடாது,” என்கிறார் அவர்.
இது பொழுதுபோக்குக்காகச் செய்யப்பட்டிருந்தாலும் குற்றம் தான் என்கிறார் வினோத்.
பட மூலாதாரம், Getty Images
‘AI தொழில்நுட்பக் கருவிகளை கேளிக்கைக்காகவும் பொழுதுபோக்குக்காகவும் சரியான முறையில் பயன்படுத்தலாம்’
‘விதிமுறைகளும் விழிப்புணர்வும் தேவை’
இதுபோன்ற AI தொழில்நுட்பச் செயலிகள் இன்று மக்களிடம் பரவலாகச் சென்று சேர்ந்து இருக்கிறது. ஆனால் அவற்றைப் பயன்படுத்துவதற்கான விதிமுறைகளும், சட்டப்பூர்வமானப் பயன்பாட்டுக் கையேடும் உருவாக்கப்படவில்லை, அது மக்களுக்கும் எடுத்துச் சொல்லப்படவில்லை என்கிறார் வினோத்.
இதனால் பல இளைஞர்கள் இதுபற்றிய விழிப்புணர்வு இல்லாமலேயே இதுபோன்ற செயல்களில் ஈடுபட்டு, வழக்குகளில் சிக்கி, வாழ்க்கையைத் தொலைக்கும் சாத்தியமும் உண்டு என்கிறார்.
“அரசங்கமும், ஊடங்களும் AI தொழில்நுட்பம், deepfake, போன்றவற்றை எப்படிப் பாதுகாப்பாக, சட்ட வரையறைக்குட்பட்டுப் பயன்படுத்துவது என்பது பற்றிப் பொதுமக்களுக்கு விழிப்புணர்வு வழங்க வேண்டும்,” என்கிறார் வினோத்.
நன்றி
Publisher: பிபிசிதமிழ்
