அதன் பல நன்மைகள் இருந்தபோதிலும், AI நெறிமுறை, பொருளாதார மற்றும் சமூக கவலைகளை எழுப்பும் கடுமையான அபாயங்களையும் முன்வைக்கிறது.
வேலை இடமாற்றம் முதல் தனியுரிமை மீறல்கள் வரை, AI இன் விரைவான பரிணாமம் அதன் நீண்டகால விளைவுகள் குறித்த விவாதங்களைத் தூண்டுகிறது. எனவே, AI ஏன் மோசமானது? இந்த தொழில்நுட்பம் எப்போதும் பயனுள்ளதாக இல்லாமல் இருப்பதற்கான முக்கிய காரணங்களை ஆராய்வோம்.
இதற்குப் பிறகு நீங்கள் படிக்க விரும்பக்கூடிய கட்டுரைகள்:
🔗 AI ஏன் நல்லது? – செயற்கை நுண்ணறிவின் நன்மைகள் மற்றும் எதிர்காலம் – AI எவ்வாறு தொழில்களை மேம்படுத்துகிறது, உற்பத்தித்திறனை அதிகரிக்கிறது மற்றும் சிறந்த எதிர்காலத்தை வடிவமைக்கிறது என்பதை அறிக.
🔗 AI நல்லதா கெட்டதா? - செயற்கை நுண்ணறிவின் நன்மை தீமைகளை ஆராய்தல் - நவீன சமுதாயத்தில் AI இன் நன்மைகள் மற்றும் அபாயங்கள் பற்றிய சமநிலையான பார்வை.
🔹 1. வேலை இழப்பு மற்றும் பொருளாதார சீர்குலைவு
AI பற்றிய மிகப்பெரிய விமர்சனங்களில் ஒன்று, வேலைவாய்ப்பில் அதன் தாக்கம். AI மற்றும் ஆட்டோமேஷன் தொடர்ந்து முன்னேறி வருவதால், மில்லியன் கணக்கான வேலைகள் ஆபத்தில் உள்ளன.
🔹 பாதிக்கப்பட்ட தொழில்கள்: உற்பத்தி, வாடிக்கையாளர் சேவை, போக்குவரத்து மற்றும் கணக்கியல் மற்றும் பத்திரிகை போன்ற வெள்ளை காலர் தொழில்களில் கூட AI-இயக்கப்படும் ஆட்டோமேஷன் பாத்திரங்களை மாற்றுகிறது.
🔹 திறன் இடைவெளிகள்: AI புதிய வேலை வாய்ப்புகளை உருவாக்கும் அதே வேளையில், இடம்பெயர்ந்த பல தொழிலாளர்களிடம் இல்லாத மேம்பட்ட திறன்கள் இதற்கு பெரும்பாலும் தேவைப்படுகின்றன, இது பொருளாதார சமத்துவமின்மைக்கு வழிவகுக்கிறது.
🔹 குறைந்த ஊதியம்: நிறுவனங்கள் மனித உழைப்புக்குப் பதிலாக மலிவான AI தீர்வுகளை நம்பியிருப்பதால், AI-உந்துதல் போட்டி தங்கள் வேலையைத் தக்க வைத்துக் கொள்பவர்களுக்கும் கூட ஊதியத்தைக் குறைக்கலாம்.
🔹 வழக்கு ஆய்வு: உலக பொருளாதார மன்றத்தின் (WEF) அறிக்கை, 2025 ஆம் ஆண்டுக்குள் AI மற்றும் ஆட்டோமேஷன் புதிய வேலைகளை உருவாக்கினாலும், 85 மில்லியன் வேலைகளை இடமாற்றம் செய்யக்கூடும் என்று மதிப்பிட்டுள்ளது.
🔹 2. நெறிமுறை சிக்கல்கள் மற்றும் சார்புகள்
AI அமைப்புகள் பெரும்பாலும் சார்புடைய தரவுகளின் அடிப்படையில் பயிற்சியளிக்கப்படுகின்றன, இது நியாயமற்ற அல்லது பாரபட்சமான விளைவுகளுக்கு வழிவகுக்கிறது. இது AI முடிவெடுப்பதில் நெறிமுறைகள் மற்றும் நீதி குறித்த கவலைகளை எழுப்புகிறது.
🔹 அல்காரிதமிக் பாகுபாடு: பணியமர்த்தல், கடன் வழங்குதல் மற்றும் சட்ட அமலாக்கத்தில் பயன்படுத்தப்படும் AI மாதிரிகள் இன மற்றும் பாலின சார்புகளை வெளிப்படுத்துவதாகக் கண்டறியப்பட்டுள்ளது.
🔹 வெளிப்படைத்தன்மை இல்லாமை: பல AI அமைப்புகள் "கருப்புப் பெட்டிகளாக" செயல்படுகின்றன, அதாவது டெவலப்பர்கள் கூட முடிவுகள் எவ்வாறு எடுக்கப்படுகின்றன என்பதைப் புரிந்துகொள்ள சிரமப்படுகிறார்கள்.
🔹 நிஜ உலக உதாரணம்: 2018 ஆம் ஆண்டில், அமேசான் ஒரு AI ஆட்சேர்ப்பு கருவியை கைவிட்டது, ஏனெனில் அது பெண் வேட்பாளர்களுக்கு எதிரான சார்பைக் காட்டியது, வரலாற்று பணியமர்த்தல் தரவுகளின் அடிப்படையில் ஆண் விண்ணப்பதாரர்களை விரும்பியது.
🔹 3. தனியுரிமை மீறல்கள் மற்றும் தரவு துஷ்பிரயோகம்
AI தரவுகளில் செழித்து வளர்கிறது, ஆனால் இந்த சார்பு தனிப்பட்ட தனியுரிமையை இழக்கச் செய்கிறது. பல AI-இயங்கும் பயன்பாடுகள், பெரும்பாலும் தெளிவான ஒப்புதல் இல்லாமல், அதிக அளவிலான பயனர் தகவல்களைச் சேகரித்து பகுப்பாய்வு செய்கின்றன.
🔹 வெகுஜன கண்காணிப்பு: அரசாங்கங்களும் நிறுவனங்களும் தனிநபர்களைக் கண்காணிக்க AI ஐப் பயன்படுத்துகின்றன, இது தனியுரிமை மீறல் குறித்த கவலைகளை எழுப்புகிறது.
🔹 தரவு மீறல்கள்: முக்கியமான தகவல்களைக் கையாளும் AI அமைப்புகள் சைபர் தாக்குதல்களுக்கு ஆளாகின்றன, இதனால் தனிப்பட்ட மற்றும் நிதித் தரவு ஆபத்தில் உள்ளன.
🔹 டீப்ஃபேக் தொழில்நுட்பம்: AI-உருவாக்கப்பட்ட டீப்ஃபேக்குகள் வீடியோக்கள் மற்றும் ஆடியோவை கையாளலாம், தவறான தகவல்களைப் பரப்பலாம் மற்றும் நம்பிக்கையை சிதைக்கலாம்.
🔹 ஒரு முக்கியமான வழக்கு: 2019 ஆம் ஆண்டில், ஒரு UK எரிசக்தி நிறுவனம், CEOவின் குரலைப் போல ஆள்மாறாட்டம் செய்து AI-உருவாக்கிய டீப்ஃபேக் ஆடியோவைப் பயன்படுத்தி $243,000 மோசடி செய்யப்பட்டது.
🔹 4. போர் மற்றும் தன்னாட்சி ஆயுதங்களில் AI
இராணுவ பயன்பாடுகளில் AI அதிகளவில் ஒருங்கிணைக்கப்பட்டு வருகிறது, இது தன்னாட்சி ஆயுதங்கள் மற்றும் ரோபோ போர் குறித்த அச்சங்களை எழுப்புகிறது.
🔹 கொடிய தன்னாட்சி ஆயுதங்கள்: AI-இயக்கப்படும் ட்ரோன்கள் மற்றும் ரோபோக்கள் மனித தலையீடு இல்லாமல் வாழ்வா சாவா முடிவுகளை எடுக்க முடியும்.
🔹 மோதல்களின் அதிகரிப்பு: AI போர் செலவைக் குறைத்து, மோதல்களை அடிக்கடி மற்றும் கணிக்க முடியாததாக மாற்றும்.
🔹 பொறுப்புக்கூறல் இல்லாமை: AI-இயங்கும் ஆயுதம் தவறான தாக்குதலை நடத்தும்போது யார் பொறுப்பு? தெளிவான சட்ட கட்டமைப்புகள் இல்லாதது நெறிமுறை சிக்கல்களை ஏற்படுத்துகிறது.
🔹 நிபுணர் எச்சரிக்கை: எலோன் மஸ்க் மற்றும் 100க்கும் மேற்பட்ட AI ஆராய்ச்சியாளர்கள் கொலையாளி ரோபோக்களை தடை செய்யுமாறு ஐ.நா.வை வலியுறுத்தியுள்ளனர், அவை "பயங்கரவாதத்தின் ஆயுதங்களாக" மாறக்கூடும் என்று எச்சரித்துள்ளனர்.
🔹 5. தவறான தகவல் மற்றும் கையாளுதல்
டிஜிட்டல் தவறான தகவல்களின் சகாப்தத்தை AI தூண்டிவிடுகிறது, இதனால் உண்மையிலிருந்து ஏமாற்றத்தை வேறுபடுத்துவது கடினமாகிறது.
🔹 டீப்ஃபேக் வீடியோக்கள்: AI-உருவாக்கப்பட்ட டீப்ஃபேக்குகள் பொதுமக்களின் கருத்தை கையாளும் மற்றும் தேர்தல்களில் செல்வாக்கு செலுத்தும்.
🔹 AI-உருவாக்கப்பட்ட போலிச் செய்திகள்: தானியங்கி உள்ளடக்க உருவாக்கம் முன்னோடியில்லாத அளவில் தவறாக வழிநடத்தும் அல்லது முற்றிலும் தவறான செய்திகளைப் பரப்பக்கூடும்.
🔹 சமூக ஊடக கையாளுதல்: AI-இயக்கப்படும் ரோபோக்கள் பிரச்சாரத்தை பெருக்கி, பொதுமக்களின் கருத்தை திசைதிருப்ப போலி ஈடுபாட்டை உருவாக்குகின்றன.
🔹 வழக்கு ஆய்வு: MIT நடத்திய ஆய்வில், ட்விட்டரில் உண்மையான செய்திகளை விட தவறான செய்திகள் ஆறு மடங்கு வேகமாகப் பரவுகின்றன, மேலும் அவை பெரும்பாலும் AI- இயங்கும் வழிமுறைகளால் பெருக்கப்படுகின்றன.
🔹 6. AI சார்ந்திருத்தல் மற்றும் மனித திறன்கள் இழப்பு
முக்கியமான முடிவெடுக்கும் செயல்முறைகளை AI எடுத்துக்கொள்வதால், மனிதர்கள் தொழில்நுட்பத்தை அதிகமாக நம்பியிருக்க நேரிடும், இது திறன் சீரழிவுக்கு வழிவகுக்கும்.
🔹 விமர்சன சிந்தனை இழப்பு: AI-இயக்கப்படும் ஆட்டோமேஷன் கல்வி, வழிசெலுத்தல் மற்றும் வாடிக்கையாளர் சேவை போன்ற துறைகளில் பகுப்பாய்வு திறன்களுக்கான தேவையைக் குறைக்கிறது.
🔹 சுகாதார அபாயங்கள்: AI நோயறிதல்களை அதிகமாக நம்பியிருப்பது, நோயாளி பராமரிப்பில் உள்ள முக்கியமான நுணுக்கங்களை மருத்துவர்கள் கவனிக்காமல் போக வழிவகுக்கும்.
🔹 படைப்பாற்றல் மற்றும் புதுமை: இசை முதல் கலை வரை AI-உருவாக்கிய உள்ளடக்கம், மனித படைப்பாற்றலின் வீழ்ச்சி குறித்த கவலைகளை எழுப்புகிறது.
🔹 எடுத்துக்காட்டு: 2023 ஆம் ஆண்டு நடத்தப்பட்ட ஒரு ஆய்வில், AI-உதவி கற்றல் கருவிகளை நம்பியிருக்கும் மாணவர்கள் காலப்போக்கில் சிக்கல் தீர்க்கும் திறன்களில் சரிவைக் காட்டியதாகக் காட்டியது.
🔹 7. கட்டுப்படுத்த முடியாத AI மற்றும் இருத்தலியல் அபாயங்கள்
"AI ஒருமைப்பாடு" என்று அழைக்கப்படும் மனித நுண்ணறிவை AI மிஞ்சும் என்ற பயம் நிபுணர்களிடையே ஒரு பெரிய கவலையாக உள்ளது.
🔹 அதிபுத்திசாலித்தனமான AI: சில ஆராய்ச்சியாளர்கள் AI இறுதியில் மனித கட்டுப்பாட்டிற்கு அப்பாற்பட்ட மிகவும் சக்திவாய்ந்ததாக மாறக்கூடும் என்று கவலைப்படுகிறார்கள்.
🔹 கணிக்க முடியாத நடத்தை: மேம்பட்ட AI அமைப்புகள் திட்டமிடப்படாத இலக்குகளை உருவாக்கக்கூடும், மனிதர்களால் எதிர்பார்க்க முடியாத வழிகளில் செயல்படக்கூடும்.
🔹 AI கையகப்படுத்தும் காட்சிகள்: இது அறிவியல் புனைகதை போல் தோன்றினாலும், ஸ்டீபன் ஹாக்கிங் உள்ளிட்ட முன்னணி AI நிபுணர்கள், AI ஒரு நாள் மனிதகுலத்தை அச்சுறுத்தக்கூடும் என்று எச்சரித்துள்ளனர்.
🔹 எலோன் மஸ்க்கின் மேற்கோள்: "AI என்பது மனித நாகரிகத்தின் இருப்புக்கு ஒரு அடிப்படை ஆபத்து."
❓ AI-ஐ பாதுகாப்பானதாக்க முடியுமா?
இந்த ஆபத்துகள் இருந்தபோதிலும், AI இயல்பாகவே மோசமானதல்ல - அது எவ்வாறு உருவாக்கப்பட்டு பயன்படுத்தப்படுகிறது என்பதைப் பொறுத்தது.
🔹 விதிமுறைகள் மற்றும் நெறிமுறைகள்: நெறிமுறை வளர்ச்சியை உறுதி செய்ய அரசாங்கங்கள் கடுமையான AI கொள்கைகளை செயல்படுத்த வேண்டும்.
🔹 சார்பு இல்லாத பயிற்சி தரவு: AI டெவலப்பர்கள் இயந்திர கற்றல் மாதிரிகளிலிருந்து சார்புகளை அகற்றுவதில் கவனம் செலுத்த வேண்டும்.
🔹 மனித மேற்பார்வை: முக்கியமான பகுதிகளில் மனித முடிவெடுப்பதற்கு AI உதவ வேண்டும், மாற்றாக அல்ல.
🔹 வெளிப்படைத்தன்மை: AI நிறுவனங்கள் வழிமுறைகளை மேலும் புரிந்துகொள்ளக்கூடியதாகவும் பொறுப்புணர்வுடனும் மாற்ற வேண்டும்.
சரி, ஏன் AI மோசமானது? வேலை இடப்பெயர்ச்சி மற்றும் சார்பு முதல் தவறான தகவல், போர் மற்றும் இருத்தலியல் அச்சுறுத்தல்கள் வரை ஆபத்துகள் உள்ளன. AI மறுக்க முடியாத நன்மைகளை வழங்கினாலும், அதன் இருண்ட பக்கத்தை புறக்கணிக்க முடியாது.
AI இன் எதிர்காலம் பொறுப்பான வளர்ச்சி மற்றும் ஒழுங்குமுறையைப் பொறுத்தது. சரியான மேற்பார்வை இல்லாமல், AI மனிதகுலம் இதுவரை உருவாக்கிய மிகவும் ஆபத்தான தொழில்நுட்பங்களில் ஒன்றாக மாறக்கூடும்.