சுருக்கமான பதில்: உறுதியான வரம்புகள், தகவலறிந்த ஒப்புதல் மற்றும் மேல்முறையீடு செய்வதற்கான உண்மையான உரிமை இல்லாமல் அதிக பங்குகள் கொண்ட முடிவுகள், கண்காணிப்பு அல்லது வற்புறுத்தலில் பயன்படுத்தப்படும்போது AI மிக அதிகமாகச் சென்றுள்ளது. ஆழமான போலிகள் மற்றும் அளவிடக்கூடிய மோசடிகள் நம்பிக்கையை ஒரு சூதாட்டமாக உணர வைக்கும் போது அது மீண்டும் எல்லை மீறுகிறது. AI ஒரு பங்கை வகித்தது என்பதை மக்களால் சொல்ல முடியாவிட்டால், ஒரு முடிவு ஏன் அந்த வழியில் வந்தது என்பதைப் புரிந்து கொள்ள முடியாவிட்டால், அல்லது விலக முடியவில்லை என்றால், அது ஏற்கனவே மிக தொலைவில் உள்ளது.
முக்கிய குறிப்புகள்:
எல்லைகள்: குறிப்பாக நிச்சயமற்ற தன்மை அதிகமாக இருக்கும்போது, அமைப்பு என்ன செய்ய முடியாது என்பதை வரையறுக்கவும்.
பொறுப்புக்கூறல்: மனிதர்கள் தண்டனை அல்லது நேர அழுத்த பொறிகள் இல்லாமல் விளைவுகளை மீற முடியும் என்பதை உறுதிசெய்யவும்.
வெளிப்படைத்தன்மை: AI எப்போது ஈடுபட்டுள்ளது, அது ஏன் அதன் முடிவுகளை எடுத்தது என்பதை மக்களுக்குச் சொல்லுங்கள்.
போட்டித்தன்மை: வேகமான, செயல்படக்கூடிய முறையீட்டு வழிகளையும், தவறான தரவைச் சரிசெய்வதற்கான தெளிவான வழிகளையும் வழங்குதல்.
தவறான பயன்பாட்டிற்கு எதிர்ப்பு: மோசடிகள் மற்றும் துஷ்பிரயோகங்களைத் தடுக்க ஆதாரம், விகித வரம்புகள் மற்றும் கட்டுப்பாடுகளைச் சேர்க்கவும்.
"AI மிக அதிகமாக சென்றுவிட்டதா?"
விசித்திரமான விஷயம் என்னவென்றால், கோடு கடப்பது எப்போதும் வெளிப்படையாக இருக்காது. சில நேரங்களில் அது ஒரு டீப்ஃபேக் மோசடி போல சத்தமாகவும் பளிச்சென்றும் இருக்கும். ( FTC , FBI ) மற்ற நேரங்களில் அது அமைதியாக இருக்கும் - எந்த விளக்கமும் இல்லாமல் உங்கள் வாழ்க்கையை பக்கவாட்டில் தள்ளும் ஒரு தானியங்கி முடிவு, மேலும் நீங்கள் "மதிப்பெண் பெற்றீர்கள்" என்பதை நீங்கள் உணரவே மாட்டீர்கள். ( UK ICO , GDPR கலை. 22 )
சரி... AI மிக அதிகமாகச் சென்றுவிட்டதா? சில இடங்களில், ஆம். மற்ற இடங்களில், அது போதுமான அளவு செல்லவில்லை - ஏனென்றால் இது கவர்ச்சியற்ற ஆனால் அத்தியாவசியமான பாதுகாப்பு தண்டவாளங்கள் இல்லாமல் பயன்படுத்தப்படுகிறது, இது கருவிகளை நட்பு UI உடன் ரவுலட் சக்கரங்களுக்குப் பதிலாக கருவிகளைப் போல செயல்பட வைக்கிறது. 🎰🙂 ( NIST AI RMF 1.0 , EU AI சட்டம் )
இதற்குப் பிறகு நீங்கள் படிக்க விரும்பக்கூடிய கட்டுரைகள்:
🔗 AI ஏன் சமூகத்திற்கு தீங்கு விளைவிக்கும்
முக்கிய சமூக அபாயங்கள்: சார்பு, வேலைகள், தனியுரிமை மற்றும் அதிகாரக் குவிப்பு.
🔗 AI சுற்றுச்சூழலுக்கு மோசமானதா? மறைக்கப்பட்ட தாக்கங்கள்
பயிற்சி, தரவு மையங்கள் மற்றும் ஆற்றல் பயன்பாடு எவ்வாறு உமிழ்வை அதிகரிக்கின்றன.
🔗 AI நல்லதா கெட்டதா? நன்மை தீமைகள்
நன்மைகள், அபாயங்கள் மற்றும் நிஜ உலக பரிமாற்றங்கள் பற்றிய சமநிலையான கண்ணோட்டம்.
🔗 AI ஏன் மோசமாகக் கருதப்படுகிறது: இருண்ட பக்கம்
தவறான பயன்பாடு, கையாளுதல், பாதுகாப்பு அச்சுறுத்தல்கள் மற்றும் நெறிமுறை சார்ந்த கவலைகளை ஆராய்கிறது.
"AI ரொம்ப தூரம் போயிடுச்சா?" என்று மக்கள் கேட்கும்போது என்ன அர்த்தம் 😬
பெரும்பாலான மக்கள் AI "உணர்வுபூர்வமானதா" அல்லது "கைப்பற்றுகிறதா" என்று கேட்பதில்லை. அவர்கள் இவற்றில் ஒன்றைச் சுட்டிக்காட்டுகிறார்கள்:
-
AI பயன்படுத்தக்கூடாத இடங்களில் பயன்படுத்தப்படுகிறது. (குறிப்பாக அதிக பங்குகள் கொண்ட முடிவுகள்.) ( EU AI சட்டம் இணைப்பு III , GDPR கலை. 22 )
-
ஒப்புதல் இல்லாமல் AI பயன்படுத்தப்படுகிறது. (உங்கள் தரவு, உங்கள் குரல், உங்கள் முகம்... ஆச்சரியம்.) ( UK ICO , GDPR கலை. 5 )
-
கவனத்தை கையாள்வதில் AI மிகவும் திறமையானதாகி வருகிறது. (ஊட்டங்கள் + தனிப்பயனாக்கம் + ஆட்டோமேஷன் = ஒட்டும் தன்மை.) ( OECD AI கோட்பாடுகள் )
-
AI உண்மையை விருப்பத்தேர்வாக உணர வைக்கிறது. (டீப்ஃபேக்குகள், போலி மதிப்புரைகள், செயற்கை "நிபுணர்கள்.") ( ஐரோப்பிய ஆணையம் , FTC , C2PA )
-
AI என்பது சக்தியைக் குவிக்கிறது. (ஒரு சில அமைப்புகள் அனைவரும் பார்ப்பதையும் செய்யக்கூடியதையும் வடிவமைக்கின்றன.) ( UK CMA )
"AI ரொம்ப தூரம் போயிட்டிருக்குமா?" என்பதன் மையக் கருத்து இதுதான் . இது ஒரு கணம் கூட இல்லை. இது ஊக்கத்தொகைகள், குறுக்குவழிகள் மற்றும் "நாங்கள் அதை பின்னர் சரிசெய்வோம்" என்ற சிந்தனைகளின் குவியல் - வெளிப்படையாகச் சொன்னால், இது "யாராவது காயமடைந்த பிறகு நாங்கள் அதை சரிசெய்வோம்" என்று மொழிபெயர்க்கும். 😑

அவ்வளவு ரகசியமல்லாத உண்மை: AI என்பது ஒரு பெருக்கி, ஒரு தார்மீக நடிகர் அல்ல 🔧✨
AI விழித்தெழுந்து தீங்கு விளைவிக்க முடிவு செய்யாது. மக்களும் அமைப்புகளும் அதை நோக்கமாகக் கொண்டுள்ளன. ஆனால் நீங்கள் அதற்கு உணவளிக்கும் எதையும் அது பெருக்குகிறது:
-
பயனுள்ள நோக்கம் (மொழிபெயர்ப்பு, அணுகல், சுருக்கம், மருத்துவ வடிவக் கண்டறிதல்) பெருமளவில் உதவிகரமாகிறது
-
சோம்பேறி நோக்கம் பெருமளவில் சோம்பேறியாக (அளவில் சார்பு, பிழைகளின் தானியங்கி).
-
தீய நோக்கம் பெருமளவில் தீயதாக (மோசடி, துன்புறுத்தல், பிரச்சாரம், ஆள்மாறாட்டம்).
இது ஒரு குறுநடை போடும் குழந்தைக்கு ஒரு மெகாஃபோனை கொடுப்பது போன்றது. சில நேரங்களில் குறுநடை போடும் குழந்தை பாடுகிறது... சில நேரங்களில் குறுநடை போடும் குழந்தை உங்கள் ஆன்மாவுக்குள் நேரடியாக கத்துகிறது. சரியான உருவகம் அல்ல - கொஞ்சம் முட்டாள்தனம் - ஆனால் புள்ளி சரியாக பொருந்துகிறது 😅📢.
அன்றாட அமைப்புகளில் AI இன் நல்ல பதிப்பை உருவாக்குவது எது? ✅🤝
AI இன் "நல்ல பதிப்பு" என்பது அது எவ்வளவு புத்திசாலித்தனமானது என்பதன் மூலம் வரையறுக்கப்படுவதில்லை. அது அழுத்தம், நிச்சயமற்ற தன்மை மற்றும் தூண்டுதலின் கீழ் எவ்வளவு சிறப்பாக செயல்படுகிறது என்பதன் மூலம் வரையறுக்கப்படுகிறது (மேலும் மனிதர்கள் மலிவான ஆட்டோமேஷனால் மிகவும் ஈர்க்கப்படுகிறார்கள்). ( NIST AI RMF 1.0 , OECD )
யாராவது தங்கள் AI பயன்பாடு பொறுப்பு என்று கூறும்போது நான் தேடுவது இங்கே:
1) தெளிவான எல்லைகள்
-
இந்த அமைப்பு என்ன செய்ய அனுமதிக்கப்படுகிறது?
-
என்ன செய்வது வெளிப்படையாகத் தடைசெய்யப்பட்டுள்ளது?
-
அது உறுதியாக இல்லாதபோது என்ன நடக்கும்?
2) அலங்காரமானது அல்ல, உண்மையான மனித பொறுப்பு
ஒரு மனித "மதிப்பாய்வு" முடிவுகள் பின்வரும் சந்தர்ப்பங்களில் மட்டுமே முக்கியம்:
-
அவர்கள் என்ன மதிப்பாய்வு செய்கிறார்கள் என்பதைப் புரிந்துகொள்கிறார்கள், மேலும்
-
விஷயங்களை மெதுவாக்குவதற்கு தண்டிக்கப்படாமல் அவர்கள் அதை மீறலாம்.
3) சரியான மட்டத்தில் விளக்கக்கூடிய தன்மை
அனைவருக்கும் கணிதம் தேவையில்லை. மக்களுக்கு இது அவசியம்:
-
ஒரு முடிவின் பின்னணியில் உள்ள முக்கிய காரணங்கள்,
-
என்ன தரவு பயன்படுத்தப்பட்டது,
-
மேல்முறையீடு செய்வது, சரிசெய்வது அல்லது விலகுவது எப்படி. ( UK ICO )
4) அளவிடக்கூடிய செயல்திறன் - தோல்வி முறைகள் உட்பட
"துல்லியம்" மட்டுமல்ல, ஆனால்:
-
யாருக்கு இது தோல்வியைத் தருகிறது,
-
அது எவ்வளவு அடிக்கடி அமைதியாக தோல்வியடைகிறது,
-
உலகம் மாறும்போது என்ன நடக்கும். ( NIST AI RMF 1.0 )
5) "அமைப்புகளில் புதைக்கப்படாத" தனியுரிமை மற்றும் ஒப்புதல்
சம்மதத்திற்கு மெனுக்கள் மூலம் புதையல் வேட்டை தேவைப்பட்டால்... அது சம்மதம் அல்ல. இது கூடுதல் படிகளைக் கொண்ட ஒரு ஓட்டை 😐🧾. ( GDPR கலை. 5 , UK ICO )
ஒப்பீட்டு அட்டவணை: AI அதிகமாக செல்வதைத் தடுப்பதற்கான நடைமுறை வழிகள் 🧰📊
கீழே உள்ள "சிறந்த விருப்பங்கள்", அவை பொதுவான பாதுகாப்புத் தடுப்புகள் அல்லது விளைவுகளை மாற்றும் செயல்பாட்டுக் கருவிகள் (வெறும் அதிர்வுகள் அல்ல) என்ற பொருளில் உள்ளன.
| கருவி / விருப்பம் | பார்வையாளர்கள் | விலை | இது ஏன் வேலை செய்கிறது |
|---|---|---|---|
| மனித-சுழற்சி மதிப்பாய்வு ( EU AI சட்டம் ) | அதிக-பங்கு அழைப்புகளைச் செய்யும் அணிகள் | ££ (நேரச் செலவு) | மோசமான ஆட்டோமேஷனை மெதுவாக்குகிறது. மேலும், மனிதர்கள் சில நேரங்களில் விசித்திரமான விளிம்புகளைக் கவனிக்கலாம்.. |
| முடிவு மேல்முறையீட்டு செயல்முறை ( GDPR பிரிவு 22 ) | AI முடிவுகளால் பாதிக்கப்பட்ட பயனர்கள் | இலவசம் | உரிய செயல்முறையைச் சேர்க்கிறது. தவறான தரவை மக்கள் திருத்தலாம் - இது அடிப்படையானது என்பதால் இது அடிப்படையாகத் தெரிகிறது |
| தணிக்கைப் பதிவுகள் + கண்டறியக்கூடிய தன்மை ( NIST SP 800-53 ) | இணக்கம், செயல்பாடுகள், பாதுகாப்பு | £-££ | தோல்விக்குப் பிறகு தோள்களைக் குலுக்குவதற்குப் பதிலாக "என்ன நடந்தது?" என்று பதிலளிக்க உங்களை அனுமதிக்கவா? |
| மாதிரி மதிப்பீடு + சார்பு சோதனை ( NIST AI RMF 1.0 ) | தயாரிப்பு + ஆபத்து குழுக்கள் | நிறைய மாறுபடும் | முன்கூட்டியே கணிக்கக்கூடிய தீங்கு ஏற்படும். சரியானதல்ல, ஆனால் யூகிப்பதை விட சிறந்தது |
| ரெட்-டீம் சோதனை ( NIST GenAI சுயவிவரம் ) | பாதுகாப்பு + பாதுகாப்பு நண்பர்களே | £££ | உண்மையான தாக்குபவர்கள் தவறாகப் பயன்படுத்துவதை உருவகப்படுத்துகிறது. விரும்பத்தகாதது, ஆனால் அது மதிப்புக்குரியது 😬 |
| தரவு சிறிதாக்குதல் ( UK ICO ) | எல்லோரும், வெளிப்படையாகச் சொன்னால் | £ | குறைவான தரவு = குறைவான குழப்பம். மேலும் குறைவான மீறல்கள், குறைவான மோசமான உரையாடல்கள் |
| உள்ளடக்க ஆதார சமிக்ஞைகள் ( C2PA ) | தளங்கள், ஊடகங்கள், பயனர்கள் | £-££ | "இதை ஒரு மனிதன் செய்தானா?" என்பதை சரிபார்க்க உதவுகிறது - இது முட்டாள்தனமானது அல்ல, ஆனால் குழப்பத்தைக் குறைக்கிறது |
| விகித வரம்புகள் + அணுகல் கட்டுப்பாடுகள் ( OWASP ) | AI வழங்குநர்கள் + நிறுவனங்கள் | £ | தவறாகப் பயன்படுத்தப்படுவதை உடனடியாக நிறுத்துகிறது. மோசமான நடிகர்களுக்கு வேகத்தடை போல |
ஆமா, மேஜை கொஞ்சம் சீரற்றதா இருக்கு. அதுதான் வாழ்க்கை. 🙂
அதிக பங்குள்ள முடிவுகளில் AI: அது மிக அதிகமாகச் செல்லும்போது 🏥🏦⚖️
இங்குதான் விஷயங்கள் வேகமாக தீவிரமாகின்றன.
சுகாதாரம் , நிதி , வீட்டுவசதி , வேலைவாய்ப்பு , கல்வி , குடியேற்றம் , குற்றவியல் நீதி AI - இவை பின்வரும் அமைப்புகளைக் கொண்டுள்ளன: ( EU AI சட்டம் இணைப்பு III , FDA )
-
ஒரு தவறு ஒருவரின் பணத்தையோ, சுதந்திரத்தையோ, கண்ணியத்தையோ அல்லது பாதுகாப்பையோ இழக்கச் செய்யலாம்,
-
மேலும் பாதிக்கப்பட்ட நபருக்கு பெரும்பாலும் எதிர்த்துப் போராடும் சக்தி குறைவாகவே இருக்கும்.
பெரிய ஆபத்து "AI தவறுகளைச் செய்கிறது" என்பதல்ல. பெரிய ஆபத்து என்னவென்றால், AI தவறுகள் கொள்கையாக மாறுகின்றன . ( NIST AI RMF 1.0 )
இங்கே "மிகவும் தூரம்" எப்படி இருக்கிறது?
-
எந்த விளக்கமும் இல்லாமல் தானியங்கி முடிவுகள்: “கணினி இல்லை என்று கூறுகிறது.” ( UK ICO )
-
"ஆபத்து மதிப்பெண்கள்" யூகங்களாகக் கருதப்படுவதற்குப் பதிலாக உண்மைகளாகக் கருதப்பட்டன.
-
நிர்வாகம் வேகத்தை விரும்புவதால் விளைவுகளை மீற முடியாத மனிதர்கள்.
-
ஒழுங்கற்ற, பாரபட்சமான, காலாவதியான அல்லது முற்றிலும் தவறான தரவு.
எது பேரம் பேச முடியாததாக இருக்க வேண்டும்?
-
மேல்முறையீடு செய்யும் உரிமை (வேகமானது, புரிந்துகொள்ளக்கூடியது, ஒரு குழப்பம் அல்ல). ( GDPR கலை. 22 , UK ICO )
-
AI சம்பந்தப்பட்டிருப்பதை அறிய உரிமை உண்டு ஐரோப்பிய ஆணையம் )
-
விளைவு விளைவுகளுக்கான மனித மதிப்பாய்வு NIST AI RMF 1.0 )
-
தரவுகளின் மீதான தரக் கட்டுப்பாடு - ஏனெனில் குப்பை உள்ளே, குப்பை வெளியே என்பது இன்னும் வேதனையான உண்மை.
நீங்கள் ஒரு தெளிவான கோட்டை வரைய முயற்சிக்கிறீர்கள் என்றால், இதோ ஒன்று:
ஒரு AI அமைப்பு ஒருவரின் வாழ்க்கையைப் பொருள் ரீதியாக மாற்ற முடிந்தால், அதற்கு மற்ற வகையான அதிகாரங்களிலிருந்து நாம் எதிர்பார்க்கும் அதே தீவிரம் தேவை. பதிவு செய்யாதவர்கள் மீது "பீட்டா சோதனை" இல்லை. 🚫
போலியான செய்திகள், மோசடிகள் மற்றும் "நான் என் கண்களை நம்புகிறேன்" என்ற செய்தியின் மெதுவான மரணம் 👀🧨
இதுதான் அன்றாட வாழ்க்கையை... வழுக்கும் தன்மை கொண்டதாக உணர வைக்கும் பகுதி.
AI எப்போது உருவாக்க முடியும்:
-
உங்கள் குடும்ப உறுப்பினர் போல ஒலிக்கும் குரல் செய்தி, ( FTC , FBI )
-
ஒரு பொது நபர் ஏதோ "சொல்வது" போன்ற காணொளி,
-
போதுமான அளவு உண்மையானதாகத் தோன்றும் போலி மதிப்புரைகளின் வெள்ளம், ( FTC )
-
போலி வேலை வரலாறு மற்றும் போலி நண்பர்களைக் கொண்ட போலி LinkedIn சுயவிவரம்..
...இது மோசடிகளை மட்டும் தூண்டுவதில்லை. அந்நியர்கள் ஒருங்கிணைக்க அனுமதிக்கும் சமூகப் பசையை இது பலவீனப்படுத்துகிறது. மேலும் சமூகம் அந்நியர்கள் ஒருங்கிணைப்பில் இயங்குகிறது. 😵💫
"மிகவும் தூரம்" என்பது போலி உள்ளடக்கம் மட்டுமல்ல
இது சமச்சீரற்ற தன்மை :
-
பொய்களை உருவாக்குவது மலிவானது.
-
உண்மையைச் சரிபார்க்க இது விலை உயர்ந்தது மற்றும் மெதுவாக உள்ளது.
-
மேலும் பெரும்பாலான மக்கள் பிஸியாகவும், சோர்வாகவும், ஸ்க்ரோலிங் செய்வதிலும் இருக்கிறார்கள்.
எது உதவுகிறது (கொஞ்சம்)
-
ஊடகங்களுக்கான தோற்றக் குறிப்பான்கள். ( C2PA )
-
வைரலாகி வருவதற்கான உராய்வு - உடனடி வெகுஜனப் பகிர்வை மெதுவாக்குதல்.
-
முக்கியமான இடங்களில் சிறந்த அடையாள சரிபார்ப்பு (நிதி, அரசு சேவைகள்).
-
தனிநபர்களுக்கான அடிப்படை "வெளியேறுதல் பட்டையைச் சரிபார்க்கவும்" பழக்கங்கள் (திரும்ப அழைக்கவும், ஒரு குறியீட்டு வார்த்தையைப் பயன்படுத்தவும், மற்றொரு சேனல் வழியாக உறுதிப்படுத்தவும்). ( FTC )
கவர்ச்சியா இல்ல. ஆனா சீட் பெல்ட்களும் இல்ல, எனக்கும் அந்த பெல்ட் மேல ரொம்ப பற்று இருக்கு, தனிப்பட்ட முறையில. 🚗
கண்காணிப்பு ரகசியம்: AI அமைதியாக எல்லாவற்றையும் ஒரு சென்சாராக மாற்றும் போது 📷🫥
இது ஒரு டீப்ஃபேக் மாதிரி வெடிக்காது. பரவிக்கொண்டே போகும்.
AI இதை எளிதாக்குகிறது:
-
கூட்டங்களில் முகங்களை அடையாளம் காணவும், ( EU AI சட்டம் , NIST FRVT )
-
பாதை இயக்க முறைகள்,
-
வீடியோவிலிருந்து உணர்ச்சிகளை ஊகிக்கவும் (பெரும்பாலும் மோசமாக, ஆனால் நம்பிக்கையுடன்), ( பாரெட் மற்றும் பலர், 2019 , EU AI சட்டம் )
-
நடத்தை... அல்லது உங்கள் சுற்றுப்புறத்தின் சூழலைப் பொறுத்து "ஆபத்தை" கணிக்கவும்.
அது துல்லியமற்றதாக இருந்தாலும் கூட, அது தலையீட்டை நியாயப்படுத்தக்கூடும் என்பதால் அது இன்னும் தீங்கு விளைவிக்கும். தவறான கணிப்பு இன்னும் உண்மையான விளைவுகளைத் தூண்டும்.
சங்கடமான பகுதி
AI-இயங்கும் கண்காணிப்பு பெரும்பாலும் ஒரு பாதுகாப்புக் கதையில் மூடப்பட்டிருக்கும்:
-
"இது மோசடி தடுப்புக்கானது."
-
"இது பாதுகாப்புக்காக."
-
"இது பயனர் அனுபவத்திற்கானது."
சில நேரங்களில் அது உண்மைதான். சில நேரங்களில் அது பின்னர் அகற்றுவதற்கு மிகவும் கடினமான கட்டிட அமைப்புகளுக்கு ஒரு வசதியான சாக்குப்போக்காகவும் அமைகிறது. அந்த நேரத்தில் அது திறமையானதாகத் தோன்றியதால் உங்கள் சொந்த வீட்டில் ஒரு வழி கதவை நிறுவுவது போல. மீண்டும், இது ஒரு சரியான உருவகம் அல்ல - ஒருவித அபத்தமானது - ஆனால் நீங்கள் அதை உணர்கிறீர்கள். 🚪😅
இங்கே "நல்லது" எப்படி இருக்கும்?
-
தக்கவைத்தல் மற்றும் பகிர்தல் மீது கடுமையான வரம்புகள்.
-
விலகல்களை அழி.
-
குறுகிய பயன்பாட்டு வழக்குகள்.
-
சுயாதீன மேற்பார்வை.
-
தண்டனை அல்லது வாயில்காப்புக்கு "உணர்ச்சி கண்டறிதல்" பயன்படுத்தப்படவில்லை. தயவுசெய்து. 🙃 ( EU AI சட்டம் )
வேலை, படைப்பாற்றல் மற்றும் அமைதியான பணிநீக்கப் பிரச்சினை 🧑💻🎨
இங்குதான் விவாதம் தனிப்பட்டதாகிறது, ஏனெனில் அது அடையாளத்தைத் தொடுகிறது.
AI மக்களை அதிக உற்பத்தித்திறனுடன் உருவாக்க முடியும். இது மக்களை மாற்றத்தக்கவர்களாக உணரவும் செய்யும். இரண்டும் ஒரே நேரத்தில், ஒரே வாரத்தில் உண்மையாக இருக்கலாம். ( OECD , WEF )
அது உண்மையிலேயே உதவியாக இருக்கும் இடம்
-
மனிதர்கள் சிந்தனையில் கவனம் செலுத்தும் வகையில் வழக்கமான உரையை வரைதல்.
-
மீண்டும் மீண்டும் வரும் வடிவங்களுக்கான குறியீட்டு உதவி.
-
அணுகல் கருவிகள் (தலைப்பு, சுருக்கம், மொழிபெயர்ப்பு).
-
நீங்கள் சிக்கிக்கொண்டிருக்கும்போது மூளைச்சலவை செய்தல்.
அது மிக அதிகமாக செல்லும் இடம்
-
மாற்றத் திட்டங்கள் இல்லாமல் பாத்திரங்களை மாற்றுதல்.
-
ஊதியங்களை சமன் செய்யும் போது வெளியீட்டைக் குறைக்க AI ஐப் பயன்படுத்துதல்.
-
படைப்புப் பணிகளை எல்லையற்ற இலவச பயிற்சித் தரவுகளாகக் கருதுதல், பின்னர் தோள்களைக் குலுக்கல். ( அமெரிக்க பதிப்புரிமை அலுவலகம் , UK GOV.UK )
-
இளைய பாத்திரங்களை மறையச் செய்வது - எதிர்கால நிபுணர்கள் ஏற வேண்டிய ஏணியை நீங்கள் எரித்துவிட்டீர்கள் என்பதை உணரும் வரை இது திறமையானதாகத் தோன்றும்.
திறமையை குறைத்தல் என்பது நுட்பமானது. நீங்கள் அதை நாளுக்கு நாள் கவனிப்பதில்லை. பின்னர் ஒரு நாள் உதவியாளர் இல்லாமல் விஷயம் எவ்வாறு செயல்படுகிறது என்பதை குழுவில் உள்ள யாரும் நினைவில் கொள்ள மாட்டார்கள் என்பதை நீங்கள் உணருவீர்கள். உதவியாளர் தவறு செய்தால், நீங்கள் அனைவரும் நம்பிக்கையுடன் ஒன்றாக தவறு செய்கிறீர்கள்... இது ஒருவிதத்தில் ஒரு கனவு. 😬
சக்தி செறிவு: யார் இயல்புநிலைகளை அமைக்க முடியும்? 🏢⚡
AI "நடுநிலையாக" இருந்தாலும் (அது இல்லை), அதை யார் கட்டுப்படுத்துகிறார்களோ அவர்கள் வடிவமைக்க முடியும்:
-
எந்த தகவலை அணுகுவது எளிது,
-
பதவி உயர்வு அல்லது புதைக்கப்படுவது,
-
எந்த மொழி அனுமதிக்கப்படுகிறது,
-
என்ன நடத்தைகள் ஊக்குவிக்கப்படுகின்றன.
மேலும் AI அமைப்புகளை உருவாக்கவும் இயக்கவும் விலை அதிகம் என்பதால், சக்தி குவிந்து கிடக்கிறது. அது சதி அல்ல. அது தொழில்நுட்ப ரீதியாக ஒரு தந்திரமான பொருளாதாரம். ( UK CMA )
இங்கே "மிகவும் தொலைவில்" இருக்கும் தருணம்
இயல்புநிலைகள் கண்ணுக்குத் தெரியாத சட்டமாக மாறும்போது:
-
என்ன வடிகட்டப்படுகிறது என்று உங்களுக்குத் தெரியாது,
-
நீங்கள் தர்க்கத்தை ஆராய முடியாது,
-
மேலும் வேலை, சமூகம் அல்லது அடிப்படை சேவைகளுக்கான அணுகலை இழக்காமல் நீங்கள் யதார்த்தமாக விலக முடியாது.
ஒரு ஆரோக்கியமான சுற்றுச்சூழல் அமைப்புக்கு போட்டி, வெளிப்படைத்தன்மை மற்றும் உண்மையான பயனர் தேர்வு தேவை. இல்லையெனில் நீங்கள் அடிப்படையில் யதார்த்தத்தை வாடகைக்கு விடுகிறீர்கள். 😵♂️
ஒரு நடைமுறை சரிபார்ப்புப் பட்டியல்: உங்கள் உலகில் AI மிக அதிகமாகச் செல்கிறதா என்பதைக் கண்டறிவது எப்படி 🧾🔍
நான் பயன்படுத்தும் ஒரு முழுமையான சரிபார்ப்பு பட்டியல் இங்கே (ஆம், அது அபூரணமானது):
நீங்கள் ஒரு தனிநபராக இருந்தால்
-
நான் AI உடன் தொடர்பு கொள்ளும்போது எனக்குத் தெரியும். ( ஐரோப்பிய ஆணையம் )
-
இந்த அமைப்பு என்னை அதிகமாகப் பகிரத் தள்ளுகிறது.
-
நம்பத்தகுந்த வகையில் வெளியீடு தவறாக இருந்தால், அதை நான் கையாள்வதில் எனக்கு எந்தப் பிரச்சினையும் இல்லை.
-
இதைப் பயன்படுத்தி நான் மோசடி செய்யப்பட்டால், தளம் எனக்கு உதவும்... அல்லது அது தோள்களைக் குலுக்கும்.
நீங்கள் ஒரு வணிகமாகவோ அல்லது குழுவாகவோ இருந்தால்
-
நாங்கள் AI-ஐப் பயன்படுத்துகிறோம், ஏனெனில் அது மதிப்புமிக்கது, அல்லது அது நவநாகரீகமானது மற்றும் நிர்வாகம் அமைதியற்றது.
-
இந்த அமைப்பு எந்தத் தரவைத் தொடுகிறது என்பது எங்களுக்குத் தெரியும்.
-
பாதிக்கப்பட்ட பயனர் முடிவுகளை மேல்முறையீடு செய்யலாம். ( UK ICO )
-
மாதிரியை மீறுவதற்கு மனிதர்களுக்கு அதிகாரம் அளிக்கப்படுகிறது.
-
AI தோல்விகளுக்கான சம்பவ மறுமொழித் திட்டங்கள் எங்களிடம் உள்ளன.
-
சறுக்கல், தவறான பயன்பாடு மற்றும் அசாதாரண விளிம்பு வழக்குகளை நாங்கள் கண்காணித்து வருகிறோம்.
இவற்றில் சிலவற்றிற்கு நீங்கள் "இல்லை" என்று பதிலளித்திருந்தால், நீங்கள் தீயவர் என்று அர்த்தமல்ல. நீங்கள் "நாங்கள் அதை அனுப்பினோம், நம்பினோம்" என்ற சாதாரண மனித நிலையில் இருக்கிறீர்கள் என்று அர்த்தம். ஆனால் நம்பிக்கை என்பது ஒரு உத்தி அல்ல, துரதிர்ஷ்டவசமாக. 😅
இறுதி குறிப்புகள் 🧠✅
சரி... AI மிக அதிகமாகச் சென்றுவிட்டதா?
பொறுப்புணர்வு இல்லாமல் பயன்படுத்தப்படும் இடங்களில் அது மிக அதிகமாகச் சென்றுள்ளது . நம்பிக்கையை அரிக்கும் இடங்களிலும் இது மிக அதிகமாகச் சென்றுள்ளது - ஏனெனில் நம்பிக்கை உடைந்தவுடன், எல்லாமே அதிக விலை கொண்டதாகவும், சமூக ரீதியாக மிகவும் விரோதமாகவும் மாறும். ( NIST AI RMF 1.0 , EU AI சட்டம் )
ஆனால் AI இயல்பாகவே அழிந்துபோகவோ அல்லது சரியாகவோ இல்லை. இது ஒரு சக்திவாய்ந்த பெருக்கி. நாம் திறன்களை உருவாக்குவது போல் தடுப்புச் சுவர்களையும் தீவிரமாக உருவாக்குகிறோமா என்பதுதான் கேள்வி.
விரைவான சுருக்கம்:
-
ஒரு கருவியாக AI நல்லது.
-
பொறுப்பற்ற அதிகாரியாக இது ஆபத்தானது.
-
யாராவது மேல்முறையீடு செய்யவோ, புரிந்துகொள்ளவோ அல்லது விலகவோ முடியாவிட்டால் - "மிகவும் தூரம்" என்பது அங்குதான் தொடங்குகிறது. 🚦 ( GDPR கலை. 22 , UK ICO )
அடிக்கடி கேட்கப்படும் கேள்விகள்
அன்றாட வாழ்வில் AI மிக அதிகமாக சென்றுவிட்டதா?
பல இடங்களில், தெளிவான எல்லைகள் அல்லது பொறுப்புக்கூறல் இல்லாமல் முடிவுகள் மற்றும் தொடர்புகளில் நழுவத் தொடங்கியதால், AI மிகைப்படுத்தப்பட்டுள்ளது. பிரச்சனை அரிதாகவே "இருக்கும் AI"; இது AI அமைதியாக பணியமர்த்தல், சுகாதாரம், வாடிக்கையாளர் சேவை மற்றும் ஊட்டங்களில் மெல்லிய மேற்பார்வையுடன் இணைக்கப்பட்டுள்ளது. மக்கள் இது AI என்று சொல்ல முடியாதபோது, விளைவுகளை எதிர்த்துப் போட்டியிட முடியாதபோது, அல்லது விலக முடியாதபோது, அது ஒரு கருவியாக உணருவதை நிறுத்திவிட்டு, ஒரு அமைப்பாக உணரத் தொடங்குகிறது.
அதிக பங்குள்ள முடிவுகளில் "AI அதிகமாகச் செல்வது" எப்படி இருக்கும்?
சுகாதாரம், நிதி, வீட்டுவசதி, வேலைவாய்ப்பு, கல்வி, குடியேற்றம் அல்லது குற்றவியல் நீதி ஆகியவற்றில் வலுவான பாதுகாப்புகள் இல்லாமல் AI பயன்படுத்தப்படுவது போல் தெரிகிறது. மாதிரிகள் தவறு செய்கிறார்கள் என்பது மையப் பிரச்சினை அல்ல; அந்தத் தவறுகள் கொள்கையாக கடினமடைந்து சவால் செய்வது கடினமாகிறது. மெல்லிய விளக்கங்கள் மற்றும் அர்த்தமுள்ள முறையீடுகள் இல்லாத "கணினி இல்லை என்று கூறுகிறது" என்ற முடிவுகள்தான் தீங்கு விரைவாக அதிகரிக்கும் இடங்களாகும்.
ஒரு தானியங்கி முடிவு என்னைப் பாதிக்கிறதா என்பதை நான் எப்படி அறிந்து கொள்வது, நான் என்ன செய்ய முடியும்?
ஒரு பொதுவான அறிகுறி என்பது நீங்கள் கணக்கில் எடுத்துக்கொள்ள முடியாத திடீர் விளைவு: நிராகரிப்பு, கட்டுப்பாடு அல்லது தெளிவான காரணமின்றி "ஆபத்து மதிப்பெண்" அதிர்வு. பல அமைப்புகள் AI ஒரு முக்கிய பங்கை வகித்தபோது அதை வெளிப்படுத்த வேண்டும், மேலும் முடிவின் பின்னணியில் உள்ள முக்கிய காரணங்களையும் அதை மேல்முறையீடு செய்வதற்கான படிகளையும் நீங்கள் கோர முடியும். நடைமுறையில், மனித மதிப்பாய்வைக் கேளுங்கள், ஏதேனும் தவறான தரவைச் சரிசெய்யுங்கள் மற்றும் நேரடியான விலகல் பாதையை வலியுறுத்துங்கள்.
தனியுரிமை, ஒப்புதல் மற்றும் தரவு பயன்பாடு ஆகியவற்றில் AI மிகைப்படுத்திவிட்டதா?
ஒப்புதல் என்பது ஒரு குப்பைத் தொட்டியாக மாறி, தரவு சேகரிப்பு "ஒரு சந்தர்ப்பத்தில்" விரிவடையும் போது இது பெரும்பாலும் நிகழ்கிறது. தனியுரிமை மற்றும் ஒப்புதல் அமைப்புகளில் புதைக்கப்பட்டாலோ அல்லது தெளிவற்ற சொற்களால் கட்டாயப்படுத்தப்பட்டாலோ அவை அதிக எடையைக் கொண்டிருக்காது என்பதே கட்டுரையின் மையக் கருத்து. ஆரோக்கியமான அணுகுமுறை தரவு குறைப்பு: குறைவாகச் சேகரிக்கவும், குறைவாக வைத்திருக்கவும், பின்னர் மக்கள் ஆச்சரியப்படாமல் இருக்க தேர்வுகளை சந்தேகத்திற்கு இடமின்றி செய்யவும்.
டீப்ஃபேக்குகளும் AI மோசடிகளும் ஆன்லைனில் "நம்பிக்கை" என்பதன் அர்த்தத்தை எவ்வாறு மாற்றுகின்றன?
நம்பகமான போலி குரல்கள், வீடியோக்கள், மதிப்புரைகள் மற்றும் அடையாளங்களை உருவாக்குவதற்கான செலவைக் குறைப்பதன் மூலம் அவர்கள் உண்மையை விருப்பத்தேர்வாக உணர வைக்கிறார்கள். சமச்சீரற்ற தன்மைதான் பிரச்சனை: பொய்களை உருவாக்குவது மலிவானது, அதே நேரத்தில் உண்மையைச் சரிபார்ப்பது மெதுவாகவும் சோர்வாகவும் இருக்கிறது. நடைமுறைத் தற்காப்புகளில் ஊடகங்களுக்கான மூல சமிக்ஞைகள், வைரஸ் பகிர்வை மெதுவாக்குதல், முக்கியத்துவம் வாய்ந்த இடங்களில் வலுவான அடையாளச் சரிபார்ப்புகள் மற்றும் திரும்ப அழைப்பது அல்லது பகிரப்பட்ட குறியீட்டு வார்த்தையைப் பயன்படுத்துவது போன்ற "வெளியே சரிபார்க்கும்" பழக்கங்கள் அடங்கும்.
AI அளவுக்கு அதிகமாக செல்வதைத் தடுக்க மிகவும் நடைமுறைக்குரிய பாதுகாப்புத் தடுப்புகள் யாவை?
விளைவுகளை மாற்றும் பாதுகாப்புத் தடுப்புகளில், உயர்-பங்கு அழைப்புகளுக்கான உண்மையான மனித-இன்-தி-லூப் மதிப்பாய்வு, தெளிவான மேல்முறையீட்டு செயல்முறைகள் மற்றும் தோல்விகளுக்குப் பிறகு "என்ன நடந்தது?" என்று பதிலளிக்கக்கூடிய தணிக்கைப் பதிவுகள் ஆகியவை அடங்கும். மாதிரி மதிப்பீடு மற்றும் சார்பு சோதனை ஆகியவை முன்கூட்டியே கணிக்கக்கூடிய தீங்குகளைப் பிடிக்கலாம், அதே நேரத்தில் ரெட்-டீம் சோதனை தாக்குபவர்கள் செய்வதற்கு முன்பே தவறான பயன்பாட்டை உருவகப்படுத்துகிறது. விகித வரம்புகள் மற்றும் அணுகல் கட்டுப்பாடுகள் துஷ்பிரயோகம் உடனடியாக அளவிடப்படுவதைத் தடுக்க உதவுகின்றன, மேலும் தரவு குறைப்பு பலகை முழுவதும் ஆபத்தை குறைக்கிறது.
AI-உந்துதல் கண்காணிப்பு எப்போது எல்லை மீறுகிறது?
கூட்ட நெரிசலில் முகம் அடையாளம் காணுதல், இயக்க முறைமை கண்காணிப்பு அல்லது தண்டனை அல்லது வாயில் பராமரிப்புக்காகப் பயன்படுத்தப்படும் நம்பிக்கையான "உணர்ச்சி கண்டறிதல்" என அனைத்தும் இயல்பாகவே ஒரு சென்சாராக மாறும்போது அது எல்லை மீறுகிறது. துல்லியமற்ற அமைப்புகள் கூட தலையீடுகள் அல்லது சேவைகளை மறுப்பதை நியாயப்படுத்தினால் கடுமையான தீங்கு விளைவிக்கும். நல்ல நடைமுறை குறுகிய பயன்பாட்டு வழக்குகள், கடுமையான தக்கவைப்பு வரம்புகள், அர்த்தமுள்ள விலகல்கள், சுயாதீன மேற்பார்வை மற்றும் நடுங்கும் உணர்ச்சி அடிப்படையிலான தீர்ப்புகளுக்கு உறுதியான "இல்லை" என்று தோன்றுகிறது.
AI மக்களை அதிக உற்பத்தித் திறன் கொண்டவர்களாக மாற்றுகிறதா - அல்லது அமைதியாக வேலையைச் செய்வதை நிறுத்துகிறதா?
இரண்டும் ஒரே நேரத்தில் உண்மையாக இருக்கலாம், மேலும் அந்த பதற்றம்தான் முக்கிய விஷயம். வழக்கமான வரைவு, மீண்டும் மீண்டும் குறியீட்டு முறைகள் மற்றும் அணுகல் ஆகியவற்றில் AI உதவ முடியும், மனிதர்களை உயர் மட்ட சிந்தனையில் கவனம் செலுத்த விடுவிக்கிறது. மாற்றத் திட்டங்கள் இல்லாமல் பாத்திரங்களை மாற்றும்போது, ஊதியங்களைக் குறைக்கும்போது, படைப்புப் பணிகளை இலவச பயிற்சித் தரவு போல நடத்தும்போது அல்லது எதிர்கால நிபுணத்துவத்தை உருவாக்கும் இளைய பாத்திரங்களை நீக்கும்போது அது மிகைப்படுத்துகிறது. உதவியாளர் இல்லாமல் அணிகள் செயல்பட முடியாத வரை திறன்களை நீக்குதல் நுட்பமாகவே இருக்கும்.
குறிப்புகள்
-
தேசிய தரநிலைகள் மற்றும் தொழில்நுட்ப நிறுவனம் (NIST) - AI இடர் மேலாண்மை கட்டமைப்பு (AI RMF 1.0) - nist.gov
-
ஐரோப்பிய ஒன்றியம் - EU AI சட்டம் (ஒழுங்குமுறை (EU) 2024/1689) - அதிகாரப்பூர்வ இதழ் (ஆங்கிலம்) - europa.eu
-
ஐரோப்பிய ஆணையம் - AIக்கான ஒழுங்குமுறை கட்டமைப்பு (EU AI சட்டக் கொள்கைப் பக்கம்) - europa.eu
-
EU AI சட்ட சேவை மேசை - இணைப்பு III (அதிக ஆபத்துள்ள AI அமைப்புகள்) - europa.eu
-
ஐரோப்பிய ஒன்றியம் - EU இல் நம்பகமான செயற்கை நுண்ணறிவுக்கான விதிகள் (EU AI சட்ட சுருக்கம்) - europa.eu
-
UK தகவல் ஆணையர் அலுவலகம் (ICO) - தானியங்கி தனிநபர் முடிவெடுத்தல் மற்றும் விவரக்குறிப்பு என்றால் என்ன? - ico.org.uk
-
UK தகவல் ஆணையர் அலுவலகம் (ICO) - தானியங்கி முடிவெடுத்தல் மற்றும் விவரக்குறிப்பு பற்றி UK GDPR என்ன சொல்கிறது? - ico.org.uk
-
UK தகவல் ஆணையர் அலுவலகம் (ICO) - தானியங்கி முடிவெடுத்தல் மற்றும் விவரக்குறிப்பு (வழிகாட்டல் மையம்) - ico.org.uk
-
UK தகவல் ஆணையர் அலுவலகம் (ICO) - தரவு குறைப்பு (UK GDPR கொள்கைகள் வழிகாட்டுதல்) - ico.org.uk
-
GDPR-info.eu - பிரிவு 22 GDPR - gdpr-info.eu
-
GDPR-info.eu - பிரிவு 5 GDPR - gdpr-info.eu
-
அமெரிக்க கூட்டாட்சி வர்த்தக ஆணையம் (FTC) - மோசடி செய்பவர்கள் தங்கள் குடும்ப அவசரகால திட்டங்களை மேம்படுத்த AI ஐப் பயன்படுத்துகின்றனர் - ftc.gov
-
அமெரிக்க கூட்டாட்சி வர்த்தக ஆணையம் (FTC) - மோசடி செய்பவர்கள் உங்கள் பணத்தைத் திருட போலி அவசரநிலைகளைப் பயன்படுத்துகிறார்கள் - ftc.gov
-
அமெரிக்க கூட்டாட்சி வர்த்தக ஆணையம் (FTC) - போலி மதிப்புரைகள் மற்றும் சான்றுகளைத் தடை செய்யும் இறுதி விதி (செய்திக் குறிப்பு) - ftc.gov
-
மத்திய புலனாய்வு அமைப்பு (FBI) - செயற்கை நுண்ணறிவைப் பயன்படுத்தி சைபர் குற்றவாளிகளின் அச்சுறுத்தல் அதிகரித்து வருவதாக FBI எச்சரிக்கிறது - fbi.gov
-
பொருளாதார ஒத்துழைப்பு மற்றும் மேம்பாட்டு அமைப்பு (OECD) - OECD AI கோட்பாடுகள் - oecd.ai
-
OECD - செயற்கை நுண்ணறிவு கவுன்சிலின் பரிந்துரை (OECD/LEGAL/0449) - oecd.org
-
ஐரோப்பிய ஆணையம் - வெளிப்படையான AI அமைப்புகளுக்கான வழிகாட்டுதல்கள் மற்றும் நடைமுறை விதிகள் (FAQகள்) - europa.eu
-
உள்ளடக்க தோற்றம் மற்றும் நம்பகத்தன்மைக்கான கூட்டணி (C2PA) - விவரக்குறிப்புகள் v2.3 - c2pa.org
-
UK போட்டி மற்றும் சந்தைகள் ஆணையம் (CMA) - AI அடித்தள மாதிரிகள்: ஆரம்ப அறிக்கை - gov.uk
-
அமெரிக்க உணவு மற்றும் மருந்து நிர்வாகம் (FDA) - செயற்கை நுண்ணறிவு-செயல்படுத்தப்பட்ட மருத்துவ சாதனங்கள் - fda.gov
-
NIST - தகவல் அமைப்புகள் மற்றும் நிறுவனங்களுக்கான பாதுகாப்பு மற்றும் தனியுரிமைக் கட்டுப்பாடுகள் (SP 800-53 Rev. 5) - nist.gov
-
NIST - ஜெனரேட்டிவ் AI சுயவிவரம் (NIST.AI.600-1, ipd) - nist.gov
-
திறந்த உலகளாவிய பயன்பாட்டு பாதுகாப்பு திட்டம் (OWASP) - கட்டுப்பாடற்ற வள நுகர்வு (API பாதுகாப்பு முதல் 10, 2023) - owasp.org
-
NIST - முக அங்கீகார விற்பனையாளர் சோதனை (FRVT) மக்கள்தொகை - nist.gov
-
பாரெட் மற்றும் பலர் (2019) - கட்டுரை (PMC) - nih.gov
-
OECD - பணியிடத்தில் AI ஐப் பயன்படுத்துதல் (PDF) - oecd.org
-
உலக பொருளாதார மன்றம் (WEF) - எதிர்கால வேலைவாய்ப்பு அறிக்கை 2025 - டைஜஸ்ட் - weforum.org
-
அமெரிக்க பதிப்புரிமை அலுவலகம் - பதிப்புரிமை மற்றும் செயற்கை நுண்ணறிவு, பகுதி 3: உருவாக்கும் AI பயிற்சி அறிக்கை (வெளியீட்டிற்கு முந்தைய பதிப்பு) (PDF) - copyright.gov
-
இங்கிலாந்து அரசு (GOV.UK) - பதிப்புரிமை மற்றும் செயற்கை நுண்ணறிவு (ஆலோசனை) - gov.uk