சுந்தர் பிச்சை, கூகுள் சி.இ.ஓ பதவியில் இருந்து விலக நெருக்கடியா? என்ன நடக்கிறது?

சுந்தர் பிச்சை, கூகுள் சி.இ.ஓ பதவியில் இருந்து விலக நெருக்கடியா? என்ன நடக்கிறது?

சுந்தர் பிச்சை

பட மூலாதாரம், AFP

கூகுள் நிறுவனத்தின் தலைமை செயல் அலுவலர் சுந்தர் பிச்சையை விரைவில் பதவி நீக்கம் செய்ய வேண்டும், இல்லையெனில் அவரே ராஜினாமா செய்வார் என, ஹீலியோஸ் கேப்பிட்டல் நிறுவனர் சமீர் அரோரா கருத்து தெரிவித்துள்ளதாக, ‘தி எக்கனாமிக் டைம்ஸ்’ ஊடகத்தில் செய்தி வெளியாகியுள்ளது.

இதையடுத்து, சுந்தர் பிச்சை ராஜினாமா குறித்து பல செய்திகள் ஊடகங்களில் வெளிவரத் தொடங்கின.

கூகுளின் செயற்கை நுண்ணறிவு தளமான ‘ஜெமினி ஏஐ’யின் தோல்வியே இதற்கு காரணம் என்று ’எக்ஸ்’ சமூக ஊடக பக்கத்தில் தெரிவித்துள்ள சமீர், சுந்தர் பிச்சையின் பதவிக்காலம் முடிவடைவதாக உணர்கிறேன் என்றார்.

“அவர் பதவி நீக்கம் செய்யப்படுவார் அல்லது பதவி விலகுவார் என்பது எனது யூகம். செயற்கை நுண்ணறிவு தளத்தை வெற்றியடையச் செய்வதில் அவர் முற்றிலும் தோல்வியடைந்ததால், வேறு யாராவது அவரது பதவியில் பொறுப்பேற்பார்,” என்று அரோரா தனது எக்ஸ் பக்கத்தில் கூறியுள்ளார்.

இதனால், கூகுள் நிறுவனத்தின் தலைமை செயல் அலுவலர் பதவியில் இருந்து சுந்தர் பிச்சை பதவி விலக நெருக்கடி வந்திருப்பதாக ஊடகங்களிலும், சமூக வலைதளங்களிலும் அதிகம் பேசப்படுகிறது. என்ன பிரச்னை? கூகுள் நிறுவனத்தில் என்ன நடக்கிறது?

கூகுள் நிறுவனம்

பட மூலாதாரம், GETTY IMAGES

படக்குறிப்பு,

கூகுளின் தாய் நிறுவனமான ஆல்ஃபபெட்-ன் தலைமையகம், கலிஃபோர்னியாவில் உள்ள மவுண்டன் வியூவில் உள்ளது.

மோதி குறித்து ’ஜெமினி ஏஐ’ சொன்னது என்ன?

இதுகுறித்து ‘தி எகனாமிக் டைம்ஸ்’ வெளியிட்டுள்ள செய்தியில், இந்திய அரசின் மின்னணு மற்றும் தகவல் தொழில்நுட்ப அமைச்சகம் கூகுள் நிறுவனத்துக்கு நோட்டீஸ் அனுப்பும் என தகவல்கள் வெளியாகி உள்ளதாக குறிப்பிடப்பட்டுள்ளது. பிரதமர் மோதியைப் பற்றி ’ஜெமினி ஏ’யின் பாரபட்சமான பதிலே இதற்குக் காரணம் என்று அந்தக் கட்டுரை கூறுகிறது.

பிரதமர் மோதி பாசிசவாதியாஎன்று ’ஜெமினி ஏஐ’யிடம் நெட்டிசன் ஒருவர் கேட்டதற்கு, மோதி பின்பற்றும் சில கொள்கைகளால் சிலர் மோதியை பாசிசவாதி என்று அழைக்கிறார்கள் என்று சர்ச்சைக்குரிய பதில் அளித்ததாக அந்தக் கட்டுரையில் குறிப்பிடப்பட்டுள்ளது. ஆனால், இதே கேள்வியை அமெரிக்க முன்னாள் அதிபர் டிரம்ப் மற்றும் யுக்ரேன் அதிபர் விளாடிமிர் ஸெலென்ஸ்கி குறித்து கேட்டபோது, ​​’முற்றிலும், தெளிவாக கூற முடியாது’ என அந்த பதில் அளித்ததால், ’ஜெமினி ஏஐ’ கருவி பக்கச்சார்புடையது என நெட்டிசன் ஒருவர் எக்ஸ் தளத்தில் பதிவிட்டுள்ளார்.

இதுதொடர்பாக பதிலளித்த மத்திய அமைச்சர் ராஜீவ் சந்திரசேகர், ’ஜெமினி ஏஐ’ தளத்தின் செயல்பாடுகள் இந்திய தொழில்நுட்ப விதிகளுக்கு எதிரானது என்றார். ’தி எகனாமிக் டைம்ஸ்’ கட்டுரையின்படி, இது தகவல் தொழில்நுட்பச் சட்டத்தின் விதி 3 (1)-ஐ மீறுகிறது மற்றும் குற்றவியல் சட்டத்தின் பல விதிகளுக்கு முரணானது.

கூகுள் நிறுவனம்

பட மூலாதாரம், GOOGLE/GEMINI

படக்குறிப்பு,

இரண்டாம் உலகப் போரில் ஜெர்மன் வீரர்கள் குறித்த கேள்விக்கு ஜெமினி ஏஐ காட்டிய படங்கள்

விமர்சனங்களும் கூகுள் நிறுவனத்தின் மன்னிப்பும்

மிகப்பெரிய தேடுபொறியான கூகுள், அதன் செயற்கை நுண்ணறிவு கருவியான ‘ஜெமினி ஏஐ’ க்காக விமர்சிக்கப்பட்டு வருகிறது. அக்கருவி, வரலாற்று உண்மைகளை தவறாக சித்தரிப்பதாக சமூக வலைதளங்களில் நெட்டிசன்கள் பலரும் பதிவிட்டு வருகின்றனர்.

கூகுளின் செயற்கை நுண்ணறிவுதொடர்பான பிரச்னை காலம் தாழ்த்தி தீர்க்கப்படும் விஷயமா என, பிபிசி தொழில்நுட்ப ஆசிரியர் ஜோ க்ளின்மேன் கட்டுரையொன்றில் இதுகுறித்து விவாதித்துள்ளார்.

ஜெமினி ஏஐ கருவி, மற்றொரு செயற்கை நுண்ணறிவு கருவியான சாட் ஜிபிடி-க்கு (ChatGPT) போட்டியாக கூகுள் நிறுவனத்தால் உருவாக்கப்பட்டது. இது எழுத்து வடிவில் கேட்கப்படும் கேள்விகளுக்கு பதிலளிக்கிறது. மேலும், இது நாம் கேட்கும் கேள்விகளுக்கு எழுத்து வடிவில் பதிலளிக்கும். சில சமயங்களில் கேள்விக்கேற்ப படங்களையும் தரும்.

இந்த வரிசையில், அமெரிக்காவைக் கண்டுபிடித்தவர்கள் பற்றிய கேள்விக்கு கருப்பர்களை சுட்டிக்காட்டி பொருத்தமற்ற பதிலை அளித்ததாக சர்ச்சை உள்ளது. மேலும், இரண்டாம் உலகப்போரின் நாஜி வீரர்களை கறுப்பினத்தவராகவும் காட்டும் படங்களை வெளியிட்டது. இதற்கு, கூகுள் உடனடியாக பதிலளித்து மன்னிப்பு கேட்டது.

ஆனால், இந்த விவகாரம் இதோடு நிற்கவில்லை. லட்சக்கணக்கானவர்களை ஹிட்லர் கொன்றது விபத்தா அல்லது ஈலோன் மஸ்க் வெளியிட்ட மீம்ஸ்கள் அதிக தீங்கு விளைவிப்பதா அல்லது சமூகத்தில் எதிர்மறையான தாக்கத்தை ஏற்படுத்துமா என்ற கேள்விக்கு ஜெமினி ஏஐ உறுதியான பதிலை அளிக்கவில்லை.

இதுகுறித்து ஈலோன் எலோன் மஸ்க் பதிலளித்துள்ளார். “லட்சக்கணக்கான மக்கள் பயன்படுத்தும் கூகுள் தயாரிப்புகளில் இந்த கருவி ஒருங்கிணைக்கப்பட்டுள்ளது, ஆனால் அது தரும் தவறான பதில்கள் ‘எச்சரிக்கை மணியாக உள்ளது’,” என்று அவர் கூறினார்.

“ஜெமினி ஏஐ கருவியை முற்றிலுமாக நிறுத்த வேண்டுமா என்று கூகுளிடம் கேட்டபோது, ​​சிறிது நேரம் கழித்து அந்த நிறுவனத்திடம் எந்தக் கருத்தும் இல்லை என்று பதில் வந்தது. “மக்களை கேலிக்கூத்தாக நினைப்பது சரியல்ல” என்று மஸ்க் கூறினார்.

இருப்பினும், கூகுள் தலைமை நிர்வாக அதிகாரி சுந்தர் பிச்சை, ஜெமினி ஏஐ செய்யும் தவறுகளை உணர்ந்ததாக, நிறுவனத்தின் உள்குறிப்பில் தெரிவித்துள்ளார்.

“ஜெமினி வாடிக்கையாளர்களை காயப்படுத்துகிறது, பாரபட்சமாக இருக்கிறது” என அதில் தெரிவிக்கப்பட்டுள்ளது. “இது முற்றிலும் ஏற்றுக்கொள்ள முடியாதது. அதை சரிசெய்ய எங்கள் குழு 24 மணிநேரமும் உழைத்து வருகிறது,” என்று அவர் கூறியுள்ளார்.

கூகுள் நிறுவனம்

பட மூலாதாரம், GETTY IMAGES

பாரபட்சமான தகவல்

தொழில்நுட்ப ஜாம்பவான் ஒரு சிக்கலைத் தீர்த்து, மற்றொரு சிக்கலை உருவாக்கியுள்ளதாகத் தெரிகிறது. ஏனெனில், ஏஐ தொழில்நுட்பம், இணையத்தில் கிடைக்கும் வரம்பற்ற தகவல்களின் அடிப்படையில் இயங்குகிறது. இந்த பாரபட்சமான தகவல்கள் அனைத்தும் இணையத்தில் அனைவரையும் சென்றடையும்.

இயற்கையாகவே, இணையத்தில் ஆண்களின் படங்கள் மருத்துவர்களாகக் காணப்படுகின்றன. சுத்தம் செய்யும் தொழிலாளர்களின் படங்கள் பெண்களாகக் காட்டப்படுகின்றன.

இதுபோன்ற தகவல்களில் செயற்கை நுண்ணறிவு கருவிகள் கடந்த காலங்களில் பல தவறுகளை செய்துள்ளன. ஆண்களால் மிக சக்தி வாய்ந்த வேலைகளைச் செய்ய முடியும் என்பதைக் காட்டுவது, கறுப்பின மக்களை மனிதர்களாக அங்கீகரிக்காதது போன்றவையும் இதில் அடங்கும்.

ஆனால், இதுபோன்ற அனுமானங்களைச் செய்யாமல், இந்த தவறுகளை எல்லாம் சரி செய்ய கூகுள், ஜெமினி ஏஐ-க்கு போதுமான அறிவுரைகளை வழங்கியுள்ளதாக தெரிகிறது. இருப்பினும், ஜெமினி ஏஐ விமர்சனத்திற்கான காரணம் மனித வரலாறு மற்றும் கலாசாரம். இவற்றைப் புரிந்துகொள்வது நாம் நினைப்பது போல் எளிதானது அல்ல. இவற்றில் உள்ள சிறிய வேறுபாடுகளை நாம் உள்ளுணர்வால் புரிந்துகொள்கிறோம், ஆனால் அந்த உணர்திறனை இயந்திரங்கள் புரிந்து கொள்ளவில்லை.

படங்களை வெளியிடும்போது ஏற்படும் சிக்கலை சரிசெய்ய சில வாரங்கள் ஆகும் என, `டீப்மைண்ட்` நிறுவனத்தின் இணை நிறுவனர் டெமிஸ் ஹசாபிஸ் தெரிவித்துள்ளார். இந்த `டீப்மைண்ட் ஏஐ` நிறுவனத்தை கூகுள் வாங்கியிருப்பது அனைவருக்கும் தெரிந்ததே.

ஆனால் மற்ற செயற்கை நுண்ணறிவு தொழில்நுட்ப நிபுணர்கள் இதனை அவ்வளவாக நம்பவில்லை.

“இந்தப் பிரச்னையைத் தீர்ப்பது எளிதல்ல. இது அனைவருக்கும் பொருந்தக்கூடிய ஒரு விஷயம் அல்ல,” என்கிறார் ஹக்கிங்ஃபேஸின் (HuggingFace) ஆராய்ச்சி விஞ்ஞானி டாக்டர் சாஷா லுச்சியோனி.

“செயற்கை நுண்ணறிவு நெறிமுறைகள் குழுவில் உள்ளவர்கள் இந்த சிக்கலை முடிந்தவரை பல வழிகளில் தீர்க்க முயற்சிக்கின்றனர்,” என்று அவர் கூறினார். இல்லை என்றால் இதற்கு ஒரு தீர்வு இருக்கிறது. `படம் எவ்வளவு வித்தியாசமாக இருக்க வேண்டும் என்று நீங்கள் விரும்புகிறீர்கள்` என்று பயனர்களிடம் கேட்டுக்கொள்வதன் மூலம் இதை ஓரளவுக்குக் குறைக்க முடியும், ஆனால் இந்த தீர்வில் கூட சாத்தியமான சிக்கல்கள் உள்ளன” என தெரிவித்தார்.

“சில வாரங்களில் பிரச்னையை சரி செய்துவிடுவார்கள் என்று சொல்வது கொஞ்சம் ஆணவத்துடன் இருப்பது போன்று தோன்றுகிறது. இந்த பிரச்னை குறித்து அவர்கள் ஏதாவது செய்ய வேண்டும்,” என்று அவர் கூறினார்.

சர்ரே பல்கலைக்கழகத்தின் கணினி விஞ்ஞானி பேராசிரியர் ஆலன் உட்வார்ட் கூறுகையில், “இது மிகவும் தீவிரமான பிரச்னை போல் தெரிகிறது. தரவைப் பயிற்றுவிப்பதும் அதன் நெறிமுறைகளை (algorithm) சரிசெய்வதும் கடினமான பணியாகும்” என தெரிவித்தார்.

கூகுள் நிறுவனம்

பட மூலாதாரம், GETTY IMAGES

பிரச்னைக்கு என்ன காரணம்?

கூகுள் இதைத் தீர்க்க மிகவும் சரியான வழியைத் தேர்ந்தெடுத்ததாகத் தெரியவில்லை. இது தெரியாமல் புதிய பிரச்னைகளை உருவாக்குகிறது.

செயற்கை நுண்ணறிவு தொழில்நுட்ப பந்தயத்தில் கூகுள் முன்னணியில் இருப்பதாகத் தெரிகிறது. செயற்கை நுண்ணறிவு செயலாக்கத்திற்குத் தேவையான ஏ.ஐ ‘சிப்’கள் மற்றும் கிளவுட் நெட்வொர்க் அதனிடம் உள்ளது. அந்நிறுவனம் மிகப்பெரிய பயனர் தளத்தையும் கொண்டுள்ளது. உலகத்தரம் வாய்ந்த செயற்கை நுண்ணறிவு நிபுணர்களை அந்நிறுவனத்தால் பணியமர்த்த முடியும். அந்நிறுவனத்தின் செயற்கை நுண்ணறிவு செயல்திறன் உலகளவில் பாராட்டப்பட்டது.

கூகுளின் போட்டி தொழில்நுட்ப நிறுவனத்தைச் சேர்ந்த நிர்வாகி ஒருவர், “கூகுளின் தவறான நடவடிக்கைகளைப் பார்க்கும் போது, ’​​கைக்கு எட்டியது வாய்க்கு எட்டவில்லை’ என்றுதான் சொல்ல தோன்றுகிறது” என்றார்.

Facebook
Facebook
fb-share-icon
Telegram
WhatsApp
TekTamil.com
Disclaimer: This story is auto-aggregated by a computer program and has not been created or edited by TekTamil.
நன்றி
Publisher: பிபிசிதமிழ்

Leave a Reply

Your email address will not be published. Required fields are marked *