அறிமுகம்
புதிய உள்ளடக்கம் அல்லது கணிப்புகளை உருவாக்கும் திறன் கொண்ட செயற்கை நுண்ணறிவு அமைப்புகள் - ஜெனரேட்டிவ் AI - சைபர் பாதுகாப்பில் ஒரு மாற்றும் சக்தியாக வளர்ந்து வருகிறது. OpenAI இன் GPT-4 போன்ற கருவிகள் சிக்கலான தரவை பகுப்பாய்வு செய்து மனிதனைப் போன்ற உரையை உருவாக்கும் திறனை நிரூபித்துள்ளன, இது சைபர் அச்சுறுத்தல்களுக்கு எதிராகப் பாதுகாப்பதற்கான புதிய அணுகுமுறைகளை செயல்படுத்துகிறது. தொழில்கள் முழுவதும் சைபர் பாதுகாப்பு வல்லுநர்கள் மற்றும் வணிக முடிவெடுப்பவர்கள், ஜெனரேட்டிவ் AI எவ்வாறு வளர்ந்து வரும் தாக்குதல்களுக்கு எதிராக பாதுகாப்புகளை வலுப்படுத்த முடியும் என்பதை ஆராய்ந்து வருகின்றனர். நிதி மற்றும் சுகாதாரப் பராமரிப்பு முதல் சில்லறை விற்பனை மற்றும் அரசு வரை, ஒவ்வொரு துறையிலும் உள்ள நிறுவனங்கள் அதிநவீன ஃபிஷிங் முயற்சிகள், தீம்பொருள் மற்றும் ஜெனரேட்டிவ் AI எதிர்கொள்ள உதவும் பிற அச்சுறுத்தல்களை எதிர்கொள்கின்றன. இந்த வெள்ளை ஆய்வறிக்கையில், ஜெனரேட்டிவ் AI ஐ சைபர் பாதுகாப்பில் எவ்வாறு பயன்படுத்தலாம் என்பதை , நிஜ உலக பயன்பாடுகள், எதிர்கால சாத்தியக்கூறுகள் மற்றும் தத்தெடுப்புக்கான முக்கியமான பரிசீலனைகளை எடுத்துக்காட்டுகிறோம்.
பாரம்பரிய பகுப்பாய்வு AI இலிருந்து, வடிவங்களைக் கண்டறிவது மட்டுமல்லாமல் உருவாக்குவதன் - பயிற்சி பாதுகாப்புகளுக்கான தாக்குதல்களை உருவகப்படுத்துதல் அல்லது சிக்கலான பாதுகாப்புத் தரவுகளுக்கான இயற்கை மொழி விளக்கங்களை உருவாக்குதல். இந்த இரட்டைத் திறன் இதை இரட்டை முனைகள் கொண்ட வாளாக மாற்றுகிறது: இது சக்திவாய்ந்த புதிய தற்காப்பு கருவிகளை வழங்குகிறது, ஆனால் அச்சுறுத்தல் நடிகர்களும் அதைப் பயன்படுத்திக் கொள்ளலாம். ஃபிஷிங் கண்டறிதலை தானியங்குபடுத்துவது முதல் சம்பவ பதிலை மேம்படுத்துவது வரை சைபர் பாதுகாப்பில் ஜெனரேட்டிவ் AI க்கான பரந்த அளவிலான பயன்பாட்டு நிகழ்வுகளை பின்வரும் பிரிவுகள் ஆராய்கின்றன. நிறுவனங்கள் நிர்வகிக்க வேண்டிய அபாயங்களுடன் (AI "மாயத்தோற்றங்கள்" அல்லது விரோதமான தவறான பயன்பாடு போன்றவை) இந்த AI கண்டுபிடிப்புகள் உறுதியளிக்கும் நன்மைகளையும் நாங்கள் விவாதிக்கிறோம். இறுதியாக, வணிகங்கள் தங்கள் சைபர் பாதுகாப்பு உத்திகளில் ஜெனரேட்டிவ் AI ஐ மதிப்பீடு செய்து பொறுப்புடன் ஒருங்கிணைக்க உதவும் நடைமுறை வழிகளை நாங்கள் வழங்குகிறோம்.
சைபர் பாதுகாப்பில் உருவாக்க AI: ஒரு கண்ணோட்டம்
சைபர் பாதுகாப்பில் ஜெனரேட்டிவ் AI என்பது AI மாதிரிகளைக் குறிக்கிறது - பெரும்பாலும் பெரிய மொழி மாதிரிகள் அல்லது பிற நரம்பியல் நெட்வொர்க்குகள் - அவை பாதுகாப்புப் பணிகளுக்கு உதவ நுண்ணறிவு, பரிந்துரைகள், குறியீடு அல்லது செயற்கைத் தரவை உருவாக்க முடியும். முற்றிலும் முன்கணிப்பு மாதிரிகளைப் போலல்லாமல், ஜெனரேட்டிவ் AI அதன் பயிற்சித் தரவின் அடிப்படையில் காட்சிகளை உருவகப்படுத்தவும், மனிதனால் படிக்கக்கூடிய வெளியீடுகளை (எ.கா. அறிக்கைகள், எச்சரிக்கைகள் அல்லது தீங்கிழைக்கும் குறியீடு மாதிரிகள் கூட) உருவாக்கவும் முடியும். இந்த திறன் முன்பை விட மிகவும் ஆற்றல்மிக்க வழிகளில் அச்சுறுத்தல்களைக் கணிக்க, கண்டறிய மற்றும் பதிலளிக்க சைபர் பாதுகாப்பில் ஜெனரேட்டிவ் AI என்றால் என்ன? - பாலோ ஆல்டோ நெட்வொர்க்குகள் ). எடுத்துக்காட்டாக, ஜெனரேட்டிவ் மாதிரிகள் பரந்த பதிவுகள் அல்லது அச்சுறுத்தல் நுண்ணறிவு களஞ்சியங்களை பகுப்பாய்வு செய்து, சுருக்கமான சுருக்கம் அல்லது பரிந்துரைக்கப்பட்ட செயலை உருவாக்கலாம், பாதுகாப்பு குழுக்களுக்கு கிட்டத்தட்ட ஒரு AI "உதவியாளர்" போல செயல்படும்.
சைபர் பாதுகாப்பிற்கான ஜெனரேட்டிவ் AI இன் ஆரம்பகால செயல்படுத்தல்கள் நம்பிக்கைக்குரியவை. 2023 ஆம் ஆண்டில், மைக்ரோசாப்ட் பாதுகாப்பு ஆய்வாளர்களுக்கான GPT-4-இயங்கும் உதவியாளரான செக்யூரிட்டி கோபிலட்டை மைக்ரோசாஃப்ட் செக்யூரிட்டி கோபிலட் என்பது சைபர் பாதுகாப்பிற்கான ஒரு புதிய GPT-4 AI உதவியாளர் | தி வெர்ஜ் ). ஆய்வாளர்கள் இந்த அமைப்பை இயல்பான மொழியில் கேட்கலாம் (எ.கா. "கடந்த 24 மணி நேரத்தில் அனைத்து பாதுகாப்பு சம்பவங்களையும் சுருக்கமாகக் கூறுங்கள்" ), மேலும் கோபிலட் ஒரு பயனுள்ள கதை சுருக்கத்தை உருவாக்கும். இதேபோல், கூகிளின் த்ரெட் இன்டெலிஜென்ஸ் AI, ஜெமினி எனப்படும் ஒரு ஜெனரேட்டிவ் மாதிரியைப் பயன்படுத்துகிறது , சந்தேகத்திற்கிடமான குறியீட்டை விரைவாக பகுப்பாய்வு செய்கிறது மற்றும் தீம்பொருள் வேட்டைக்காரர்களுக்கு உதவ கண்டுபிடிப்புகளைச் சுருக்கமாகக் கூறுகிறது ( சைபர் பாதுகாப்பில் ஜெனரேட்டிவ் AI ஐ எவ்வாறு பயன்படுத்தலாம்? 10 நிஜ உலக எடுத்துக்காட்டுகள் ). இந்த எடுத்துக்காட்டுகள் திறனை விளக்குகின்றன: ஜெனரேட்டிவ் AI சிக்கலான, பெரிய அளவிலான சைபர் பாதுகாப்பு தரவை ஜீரணித்து, அணுகக்கூடிய வடிவத்தில் நுண்ணறிவுகளை வழங்க முடியும், முடிவெடுப்பதை துரிதப்படுத்துகிறது.
அதே நேரத்தில், ஜெனரேட்டிவ் AI மிகவும் யதார்த்தமான போலி உள்ளடக்கத்தை உருவாக்க முடியும், இது உருவகப்படுத்துதல் மற்றும் பயிற்சிக்கு ஒரு வரப்பிரசாதமாகும் (துரதிர்ஷ்டவசமாக, சமூக பொறியியலை உருவாக்கும் தாக்குபவர்களுக்கு). குறிப்பிட்ட பயன்பாட்டு நிகழ்வுகளுக்குச் செல்லும்போது, ஜெனரேட்டிவ் AI இன் ஒருங்கிணைத்து பகுப்பாய்வு செய்யும் அதன் பல சைபர் பாதுகாப்பு பயன்பாடுகளை ஆதரிக்கிறது என்பதைக் காண்போம். கீழே, ஃபிஷிங் தடுப்பு முதல் பாதுகாப்பான மென்பொருள் மேம்பாடு வரை அனைத்தையும் உள்ளடக்கிய முக்கிய பயன்பாட்டு நிகழ்வுகளைப் பற்றி விரிவாகப் பேசுவோம், ஒவ்வொன்றும் தொழில்கள் முழுவதும் எவ்வாறு பயன்படுத்தப்படுகின்றன என்பதற்கான எடுத்துக்காட்டுகளுடன்.
சைபர் பாதுகாப்பில் ஜெனரேட்டிவ் AI இன் முக்கிய பயன்பாடுகள்
படம்: சைபர் பாதுகாப்பில் ஜெனரேட்டிவ் AI-க்கான முக்கிய பயன்பாட்டு நிகழ்வுகளில் பாதுகாப்பு குழுக்களுக்கான AI கோபிலட்டுகள், குறியீடு பாதிப்பு பகுப்பாய்வு, தகவமைப்பு அச்சுறுத்தல் கண்டறிதல், பூஜ்ஜிய-நாள் தாக்குதல் உருவகப்படுத்துதல், மேம்படுத்தப்பட்ட பயோமெட்ரிக் பாதுகாப்பு மற்றும் ஃபிஷிங் கண்டறிதல் ஆகியவை அடங்கும் ( சைபர் பாதுகாப்பில் ஜெனரேட்டிவ் AI-க்கான 6 பயன்பாட்டு வழக்குகள் [+ எடுத்துக்காட்டுகள்] ).
ஃபிஷிங் கண்டறிதல் மற்றும் தடுப்பு
ஃபிஷிங் என்பது மிகவும் பரவலான சைபர் அச்சுறுத்தல்களில் ஒன்றாக உள்ளது, இது பயனர்களை தீங்கிழைக்கும் இணைப்புகளைக் கிளிக் செய்ய அல்லது சான்றுகளை வெளியிட ஏமாற்றுகிறது. ஃபிஷிங் முயற்சிகளைக் கண்டறிவதற்கும் வெற்றிகரமான தாக்குதல்களைத் தடுக்க பயனர் பயிற்சியை வலுப்படுத்துவதற்கும் ஜெனரேட்டிவ் AI பயன்படுத்தப்படுகிறது. தற்காப்பு பக்கத்தில், AI மாதிரிகள் மின்னஞ்சல் உள்ளடக்கம் மற்றும் அனுப்புநரின் நடத்தைகளை பகுப்பாய்வு செய்து, விதி அடிப்படையிலான வடிப்பான்கள் தவறவிடக்கூடிய ஃபிஷிங்கின் நுட்பமான அறிகுறிகளைக் கண்டறிய முடியும். முறையான மற்றும் மோசடி மின்னஞ்சல்களின் பெரிய தரவுத்தொகுப்புகளிலிருந்து கற்றுக்கொள்வதன் மூலம், ஒரு ஜெனரேட்டிவ் மாதிரியானது, ஒரு மோசடியைக் குறிக்கும் தொனி, வார்த்தைகள் அல்லது சூழலில் முரண்பாடுகளைக் கொடியிடலாம் - இலக்கணம் மற்றும் எழுத்துப்பிழை இனி அதைக் கொடுக்காவிட்டாலும் கூட. உண்மையில், ஜெனரேட்டிவ் AI "கண்டறியப்படாமல் போகக்கூடிய ஃபிஷிங் மின்னஞ்சல்களின் நுட்பமான அறிகுறிகளை" அடையாளம் காண முடியும் என்று பாலோ ஆல்டோ நெட்வொர்க்ஸ் ஆராய்ச்சியாளர்கள் குறிப்பிடுகின்றனர், இது நிறுவனங்கள் மோசடி செய்பவர்களை விட ஒரு படி மேலே இருக்க உதவுகிறது ( சைபர் பாதுகாப்பில் ஜெனரேட்டிவ் AI என்றால் என்ன? - பாலோ ஆல்டோ நெட்வொர்க்ஸ் ).
ஃபிஷிங் தாக்குதல்களை உருவகப்படுத்த ஜெனரேட்டிவ் AI ஐப் பயன்படுத்துகின்றன . எடுத்துக்காட்டாக, Ironscales ஒரு GPT-இயங்கும் ஃபிஷிங் சிமுலேஷன் கருவியை அறிமுகப்படுத்தியது, இது ஒரு நிறுவனத்தின் ஊழியர்களுக்கு ஏற்றவாறு போலி ஃபிஷிங் மின்னஞ்சல்களை தானாகவே உருவாக்குகிறது ( சைபர் செக்யூரிட்டியில் ஜெனரேட்டிவ் AI ஐ எவ்வாறு பயன்படுத்தலாம்? 10 நிஜ உலக எடுத்துக்காட்டுகள் ). இந்த AI-வடிவமைக்கப்பட்ட மின்னஞ்சல்கள் சமீபத்திய தாக்குபவர் தந்திரோபாயங்களை பிரதிபலிக்கின்றன, ஊழியர்களுக்கு ஃபிஷிங் உள்ளடக்கத்தைக் கண்டறிவதில் யதார்த்தமான பயிற்சியை வழங்குகின்றன. தாக்குபவர்கள் தாங்களாகவே AI ஐப் பயன்படுத்தி அதிக உறுதியான கவர்ச்சிகளை உருவாக்க முடியும் என்பது குறிப்பிடத்தக்கது. குறிப்பாக, ஜெனரேட்டிவ் AI மிகவும் மெருகூட்டப்பட்ட ஃபிஷிங் செய்திகளை உருவாக்க முடியும் என்றாலும் (எளிதில் கண்டுபிடிக்கப்பட்ட உடைந்த ஆங்கிலத்தின் நாட்கள் போய்விட்டன), AI தோற்கடிக்க முடியாதது அல்ல என்பதை பாதுகாவலர்கள் கண்டறிந்துள்ளனர். 2024 ஆம் ஆண்டில், IBM பாதுகாப்பு ஆராய்ச்சியாளர்கள் மனிதனால் எழுதப்பட்ட ஃபிஷிங் மின்னஞ்சல்களை AI-உருவாக்கியவற்றுடன் ஒப்பிட்டு ஒரு பரிசோதனையை நடத்தினர், மேலும் “ஆச்சரியப்படும் விதமாக, AI-உருவாக்கிய மின்னஞ்சல்கள் அவற்றின் சரியான இலக்கணம் இருந்தபோதிலும் கண்டறிவது இன்னும் எளிதாக இருந்தது” ( சைபர் செக்யூரிட்டியில் ஜெனரேட்டிவ் AI க்கான 6 பயன்பாட்டு வழக்குகள் [+ எடுத்துக்காட்டுகள்] ). AI-உதவி கண்டறிதலுடன் இணைந்த மனித உள்ளுணர்வு, AI-எழுதப்பட்ட மோசடிகளில் நுட்பமான முரண்பாடுகள் அல்லது மெட்டாடேட்டா சமிக்ஞைகளை இன்னும் அடையாளம் காண முடியும் என்பதை இது குறிக்கிறது.
தானியங்கி பதில்கள் அல்லது வடிப்பான்களை உருவாக்க மாதிரிகளைப் பயன்படுத்தலாம் . உதாரணமாக, ஒரு AI அமைப்பு அனுப்புநரின் சட்டபூர்வமான தன்மையைச் சரிபார்க்க சில வினவல்களுடன் மின்னஞ்சலுக்கு பதிலளிக்கலாம் அல்லது சாண்ட்பாக்ஸில் மின்னஞ்சலின் இணைப்புகள் மற்றும் இணைப்புகளை பகுப்பாய்வு செய்ய LLM ஐப் பயன்படுத்தலாம், பின்னர் எந்தவொரு தீங்கிழைக்கும் நோக்கத்தையும் சுருக்கமாகக் கூறலாம். NVIDIA இன் பாதுகாப்பு தளமான மார்பியஸ் இந்த அரங்கில் AI இன் சக்தியை நிரூபிக்கிறது - இது மின்னஞ்சல்களை விரைவாக பகுப்பாய்வு செய்து வகைப்படுத்த ஜெனரேட்டிவ் NLP மாதிரிகளைப் பயன்படுத்துகிறது, மேலும் இது பாரம்பரிய பாதுகாப்பு கருவிகளுடன் ஒப்பிடும்போது 21% சைபர் பாதுகாப்பில் ஜெனரேட்டிவ் AIக்கான 6 பயன்பாட்டு வழக்குகள் [+ எடுத்துக்காட்டுகள்] ). அசாதாரண நடத்தையைக் கண்டறிய மார்பியஸ் பயனர் தொடர்பு முறைகளை கூட சுயவிவரப்படுத்துகிறது (ஒரு பயனர் திடீரென்று பல வெளிப்புற முகவரிகளுக்கு மின்னஞ்சல் அனுப்புவது போல), இது சமரசம் செய்யப்பட்ட கணக்கு ஃபிஷிங் மின்னஞ்சல்களை அனுப்புவதைக் குறிக்கலாம்.
நடைமுறையில், தொழில்துறைகள் முழுவதும் உள்ள நிறுவனங்கள் சமூக பொறியியல் தாக்குதல்களுக்கு மின்னஞ்சல் மற்றும் வலை போக்குவரத்தை வடிகட்ட AI ஐ நம்பத் தொடங்கியுள்ளன. எடுத்துக்காட்டாக, நிதி நிறுவனங்கள், வயர் மோசடிக்கு வழிவகுக்கும் ஆள்மாறாட்டம் முயற்சிகளுக்காக தகவல்தொடர்புகளை ஸ்கேன் செய்ய ஜெனரேட்டிவ் AI ஐப் பயன்படுத்துகின்றன, அதே நேரத்தில் சுகாதார வழங்குநர்கள் ஃபிஷிங் தொடர்பான மீறல்களிலிருந்து நோயாளியின் தரவைப் பாதுகாக்க AI ஐப் பயன்படுத்துகின்றனர். யதார்த்தமான ஃபிஷிங் காட்சிகளை உருவாக்குவதன் மூலமும், தீங்கிழைக்கும் செய்திகளின் அடையாளங்களை அடையாளம் காண்பதன் மூலமும், ஜெனரேட்டிவ் AI ஃபிஷிங் தடுப்பு உத்திகளுக்கு ஒரு சக்திவாய்ந்த அடுக்கைச் சேர்க்கிறது. இதன் விளைவு: தாக்குபவர்கள் தங்கள் விளையாட்டை மேம்படுத்த அதே தொழில்நுட்பத்தைப் பயன்படுத்தினாலும், ஃபிஷிங் தாக்குதல்களை விரைவாகவும் துல்லியமாகவும் கண்டறிந்து நிராயுதபாணியாக்க AI உதவும்
தீம்பொருள் கண்டறிதல் மற்றும் அச்சுறுத்தல் பகுப்பாய்வு
நவீன தீம்பொருள் தொடர்ந்து உருவாகி வருகிறது - தாக்குபவர்கள் புதிய வகைகளை உருவாக்குகிறார்கள் அல்லது வைரஸ் தடுப்பு கையொப்பங்களைத் தவிர்ப்பதற்காக குறியீட்டை தெளிவற்றதாக்குகிறார்கள். தீம்பொருளைக் கண்டறிவதற்கும் அதன் நடத்தையைப் புரிந்துகொள்வதற்கும் ஜெனரேட்டிவ் AI புதிய நுட்பங்களை வழங்குகிறது. தீம்பொருளின் "தீய இரட்டையர்களை" உருவாக்க : பாதுகாப்பு ஆராய்ச்சியாளர்கள் அறியப்பட்ட தீம்பொருள் மாதிரியை ஒரு ஜெனரேட்டிவ் மாதிரியில் ஊட்டி, அந்த தீம்பொருளின் பல பிறழ்ந்த வகைகளை உருவாக்க முடியும். அவ்வாறு செய்வதன் மூலம், தாக்குபவர் செய்யக்கூடிய மாற்றங்களை அவர்கள் திறம்பட எதிர்பார்க்கிறார்கள். இந்த AI-உருவாக்கப்பட்ட மாறுபாடுகள் பின்னர் வைரஸ் தடுப்பு மற்றும் ஊடுருவல் கண்டறிதல் அமைப்புகளைப் பயிற்றுவிக்கப் பயன்படுத்தப்படலாம், இதனால் தீம்பொருளின் மாற்றியமைக்கப்பட்ட பதிப்புகள் கூட காடுகளில் அங்கீகரிக்கப்படும் ( சைபர் பாதுகாப்பில் ஜெனரேட்டிவ் AIக்கான 6 பயன்பாட்டு வழக்குகள் [+ எடுத்துக்காட்டுகள்] ). இந்த முன்முயற்சி உத்தி ஹேக்கர்கள் கண்டறிதலைத் தவிர்க்க தங்கள் தீம்பொருளை சிறிது மாற்றியமைக்கும் சுழற்சியை உடைக்க உதவுகிறது மற்றும் பாதுகாவலர்கள் ஒவ்வொரு முறையும் புதிய கையொப்பங்களை எழுத போராட வேண்டும். ஒரு தொழில்துறை பாட்காஸ்டில் குறிப்பிட்டுள்ளபடி, பாதுகாப்பு வல்லுநர்கள் இப்போது "நெட்வொர்க் போக்குவரத்தை உருவகப்படுத்தவும், அதிநவீன தாக்குதல்களைப் பிரதிபலிக்கும் தீங்கிழைக்கும் பேலோடுகளை உருவாக்கவும்" ஜெனரேட்டிவ் AI ஐப் பயன்படுத்துகின்றனர், இது ஒரு நிகழ்வை விட முழு அச்சுறுத்தல் குடும்பத்திற்கும் எதிராக அவர்களின் பாதுகாப்பை அழுத்தமாக சோதிக்கிறது. இந்த தகவமைப்பு அச்சுறுத்தல் கண்டறிதல் என்பது பாதுகாப்பு கருவிகள் பாலிமார்பிக் தீம்பொருளுக்கு மிகவும் மீள்தன்மை கொண்டதாக மாறுவதைக் குறிக்கிறது, இல்லையெனில் அவை நழுவிவிடும்.
கண்டறிதலுக்கு அப்பால், ஜெனரேட்டிவ் AI, தீம்பொருள் பகுப்பாய்வு மற்றும் தலைகீழ் பொறியியலில் , இவை பாரம்பரியமாக அச்சுறுத்தல் ஆய்வாளர்களுக்கு உழைப்பு மிகுந்த பணிகளாகும். பெரிய மொழி மாதிரிகள் சந்தேகத்திற்கிடமான குறியீடு அல்லது ஸ்கிரிப்ட்களை ஆய்வு செய்து, குறியீடு என்ன செய்ய வேண்டும் என்பதை எளிய மொழியில் விளக்குவதை ஒரு நிஜ உலக உதாரணமாகக் கொள்ளலாம். ஒரு நிஜ உலக உதாரணம் வைரஸ் டோட்டல் குறியீடு இன்சைட் , இது கூகிளின் வைரஸ் டோட்டலின் ஒரு அம்சமாகும், இது தீங்கிழைக்கும் குறியீட்டின் இயற்கையான மொழி சுருக்கங்களை உருவாக்க ஒரு ஜெனரேட்டிவ் AI மாதிரியை (கூகிளின் Sec-PalM) பயன்படுத்துகிறது ( சைபர் செக்யூரிட்டியில் ஜெனரேட்டிவ் AI ஐ எவ்வாறு பயன்படுத்தலாம்? 10 நிஜ உலக எடுத்துக்காட்டுகள் ). இது அடிப்படையில் "பாதுகாப்பு குறியீட்டிற்கு அர்ப்பணிக்கப்பட்ட ஒரு வகை ChatGPT" ஆகும், இது மனித ஆய்வாளர்கள் அச்சுறுத்தல்களைப் புரிந்துகொள்ள உதவும் வகையில் 24/7 செயல்படும் AI மால்வேர் ஆய்வாளராக செயல்படுகிறது ( சைபர் செக்யூரிட்டியில் ஜெனரேட்டிவ் AI க்கான 6 பயன்பாட்டு வழக்குகள் [+ எடுத்துக்காட்டுகள்] ). அறிமுகமில்லாத ஸ்கிரிப்ட் அல்லது பைனரி குறியீட்டைப் பற்றி ஆராய்வதற்குப் பதிலாக, ஒரு பாதுகாப்பு குழு உறுப்பினர் AI இலிருந்து உடனடி விளக்கத்தைப் பெறலாம் - எடுத்துக்காட்டாக, "இந்த ஸ்கிரிப்ட் XYZ சேவையகத்திலிருந்து ஒரு கோப்பைப் பதிவிறக்கம் செய்து, பின்னர் கணினி அமைப்புகளை மாற்றியமைக்க முயற்சிக்கிறது, இது தீம்பொருள் நடத்தையைக் குறிக்கிறது." இது சம்பவ பதிலை வியத்தகு முறையில் துரிதப்படுத்துகிறது, ஏனெனில் ஆய்வாளர்கள் புதிய தீம்பொருளை முன்னெப்போதையும் விட வேகமாக வகைப்படுத்தி புரிந்துகொள்ள முடியும்.
பெரிய அளவிலான தரவுத்தொகுப்புகளில் தீம்பொருளைக் கண்டறியவும் ஜெனரேட்டிவ் AI பயன்படுத்தப்படுகிறது . பாரம்பரிய வைரஸ் தடுப்பு இயந்திரங்கள் அறியப்பட்ட கையொப்பங்களுக்கான கோப்புகளை ஸ்கேன் செய்கின்றன, ஆனால் ஒரு ஜெனரேட்டிவ் மாதிரி ஒரு கோப்பின் பண்புகளை மதிப்பீடு செய்து, கற்றறிந்த வடிவங்களின் அடிப்படையில் அது தீங்கிழைக்கிறதா என்பதைக் கூட கணிக்க முடியும். பில்லியன் கணக்கான கோப்புகளின் பண்புகளை (தீங்கிழைக்கும் மற்றும் தீங்கற்ற) பகுப்பாய்வு செய்வதன் மூலம், வெளிப்படையான கையொப்பம் இல்லாத இடத்தில் ஒரு AI தீங்கிழைக்கும் நோக்கத்தைக் கண்டறியக்கூடும். எடுத்துக்காட்டாக, ஒரு ஜெனரேட்டிவ் மாதிரியானது ஒரு இயங்கக்கூடியதை சந்தேகத்திற்குரியதாகக் கொடியிடலாம், ஏனெனில் அதன் நடத்தை சுயவிவரம் "தோன்றுகிறது" . இந்த நடத்தை அடிப்படையிலான கண்டறிதல் நாவல் அல்லது பூஜ்ஜிய-நாள் தீம்பொருளை எதிர்கொள்ள உதவுகிறது. கூகிளின் அச்சுறுத்தல் நுண்ணறிவு AI (குரோனிக்கிள்/மாண்டியன்ட்டின் ஒரு பகுதி) தீங்கிழைக்கும் குறியீட்டை பகுப்பாய்வு செய்யவும், "தீம்பொருள் மற்றும் பிற வகையான அச்சுறுத்தல்களை எதிர்த்துப் போராடுவதில் பாதுகாப்பு நிபுணர்களுக்கு மிகவும் திறமையாகவும் திறமையாகவும் உதவவும்" அதன் ஜெனரேட்டிவ் மாதிரியைப் பயன்படுத்துவதாகக் கூறப்படுகிறது. ( சைபர் பாதுகாப்பில் ஜெனரேட்டிவ் AI ஐ எவ்வாறு பயன்படுத்தலாம்? 10 நிஜ உலக எடுத்துக்காட்டுகள் ).
மறுபுறம், தாக்குதல் நடத்துபவர்கள் இங்கேயும் ஜெனரேட்டிவ் AI ஐப் பயன்படுத்தலாம் என்பதை நாம் ஒப்புக் கொள்ள வேண்டும் - தானாகவே தன்னைத் தகவமைத்துக் கொள்ளும் தீம்பொருளை உருவாக்க. உண்மையில், கண்டறிவதற்கு கடினமான தீம்பொருளை உருவாக்க உதவும் சைபர் பாதுகாப்பில் ஜெனரேட்டிவ் AI என்றால் என்ன? - பாலோ ஆல்டோ நெட்வொர்க்குகள் ). ஒரு AI மாதிரி, அறியப்பட்ட அனைத்து வைரஸ் தடுப்பு சோதனைகளையும் தவிர்க்கும் வரை, ஒரு தீம்பொருளின் ஒரு பகுதியை மீண்டும் மீண்டும் மார்பிங் செய்ய (அதன் கோப்பு அமைப்பு, குறியாக்க முறைகள் போன்றவற்றை மாற்றுதல்) அறிவுறுத்தப்படலாம். இந்த விரோதப் பயன்பாடு வளர்ந்து வரும் கவலையாகும் (சில நேரங்களில் "AI- இயங்கும் தீம்பொருள்" அல்லது ஒரு சேவையாக பாலிமார்பிக் தீம்பொருள் என்று குறிப்பிடப்படுகிறது). அத்தகைய அபாயங்களைப் பற்றி பின்னர் விவாதிப்போம், ஆனால் இது ஜெனரேட்டிவ் AI என்பது பாதுகாவலர்கள் மற்றும் தாக்குபவர்கள் இருவரும் பயன்படுத்தும் இந்த பூனை-எலி விளையாட்டில் ஒரு கருவி என்பதை அடிக்கோடிட்டுக் காட்டுகிறது.
ஒட்டுமொத்தமாக, ஜெனரேட்டிவ் AI, பாதுகாப்பு குழுக்கள் ஒரு தாக்குதலைப் போல சிந்திக்க - புதிய அச்சுறுத்தல்கள் மற்றும் தீர்வுகளை உள்நாட்டிலேயே உருவாக்குகிறது. கண்டறிதல் விகிதங்களை மேம்படுத்த செயற்கை தீம்பொருளை உருவாக்குவது அல்லது நெட்வொர்க்குகளில் காணப்படும் உண்மையான தீம்பொருளை விளக்கி கட்டுப்படுத்த AI ஐப் பயன்படுத்துவது என எதுவாக இருந்தாலும், இந்த நுட்பங்கள் அனைத்து தொழில்களிலும் பொருந்தும். ஒரு வங்கி ஒரு விரிதாளில் சந்தேகத்திற்கிடமான மேக்ரோவை விரைவாக பகுப்பாய்வு செய்ய AI-இயக்கப்படும் தீம்பொருள் பகுப்பாய்வைப் பயன்படுத்தலாம், அதே நேரத்தில் ஒரு உற்பத்தி நிறுவனம் தொழில்துறை கட்டுப்பாட்டு அமைப்புகளை இலக்காகக் கொண்ட தீம்பொருளைக் கண்டறிய AI ஐ நம்பியிருக்கலாம். ஜெனரேட்டிவ் AI உடன் பாரம்பரிய தீம்பொருள் பகுப்பாய்வை அதிகரிப்பதன் மூலம், நிறுவனங்கள் தீம்பொருள் பிரச்சாரங்களுக்கு முன்பை விட வேகமாகவும் முன்கூட்டியே பதிலளிக்க முடியும்.
அச்சுறுத்தல் நுண்ணறிவு மற்றும் தானியங்கி பகுப்பாய்வு
ஒவ்வொரு நாளும், நிறுவனங்கள் அச்சுறுத்தல் நுண்ணறிவுத் தரவுகளால் தாக்கப்படுகின்றன - புதிதாகக் கண்டுபிடிக்கப்பட்ட சமரசக் குறிகாட்டிகளின் (IOCs) ஊட்டங்கள் முதல் வளர்ந்து வரும் ஹேக்கர் தந்திரோபாயங்கள் பற்றிய ஆய்வாளர் அறிக்கைகள் வரை. பாதுகாப்பு குழுக்களுக்கு சவால் இந்த தகவல்களின் வெள்ளத்தை சல்லடை போட்டு செயல்படக்கூடிய நுண்ணறிவுகளைப் பிரித்தெடுப்பதாகும். அச்சுறுத்தல் நுண்ணறிவு பகுப்பாய்வு மற்றும் நுகர்வை தானியக்கமாக்குவதில் . டஜன் கணக்கான அறிக்கைகள் அல்லது தரவுத்தள உள்ளீடுகளை கைமுறையாகப் படிப்பதற்குப் பதிலாக, இயந்திர வேகத்தில் அச்சுறுத்தல் நுண்ணறிவைச் சுருக்கவும் சூழ்நிலைப்படுத்தவும் ஆய்வாளர்கள் AI ஐப் பயன்படுத்தலாம்.
ஒரு உறுதியான உதாரணம் கூகிளின் த்ரெட் இன்டலிஜென்ஸ் தொகுப்பு, இது மேண்டியன்ட் மற்றும் வைரஸ் டோட்டலில் இருந்து கூகிளின் அச்சுறுத்தல் தரவுகளின் தொகுப்புகளுடன் ஜெனரேட்டிவ் AI (ஜெமினி மாடல்) ஐ ஒருங்கிணைக்கிறது. இந்த AI "கூகிளின் பரந்த அச்சுறுத்தல் நுண்ணறிவு களஞ்சியத்தில் உரையாடல் தேடலை" , பயனர்கள் அச்சுறுத்தல்கள் பற்றிய இயற்கையான கேள்விகளைக் கேட்கவும் வடிகட்டிய பதில்களைப் பெறவும் அனுமதிக்கிறது ( சைபர் பாதுகாப்பில் ஜெனரேட்டிவ் AI ஐ எவ்வாறு பயன்படுத்தலாம்? 10 நிஜ உலக எடுத்துக்காட்டுகள் "எங்கள் துறையை குறிவைத்து த்ரெட் குரூப் X தொடர்பான ஏதேனும் தீம்பொருளை நாங்கள் பார்த்திருக்கிறோமா?" என்று கேட்கலாம், மேலும் AI தொடர்புடைய இன்டெல்லை ஈர்க்கும், ஒருவேளை "ஆம், த்ரெட் குரூப் X கடந்த மாதம் மால்வேர் Y ஐப் பயன்படுத்தி ஒரு ஃபிஷிங் பிரச்சாரத்துடன் இணைக்கப்பட்டது" என்று , அந்த தீம்பொருளின் நடத்தையின் சுருக்கத்தையும் சேர்த்து. இது பல கருவிகளை வினவுவது அல்லது நீண்ட அறிக்கைகளைப் படிப்பது தேவைப்படும் நுண்ணறிவுகளைச் சேகரிப்பதற்கான நேரத்தை வியத்தகு முறையில் குறைக்கிறது.
, அச்சுறுத்தல் போக்குகளையும் தொடர்புபடுத்தி சுருக்கமாகக் கூற முடியும் . இது ஆயிரக்கணக்கான பாதுகாப்பு வலைப்பதிவு இடுகைகள், மீறல் செய்திகள் மற்றும் டார்க் வெப் உரையாடல்களை இணைத்து, பின்னர் CISO இன் விளக்கத்திற்காக "இந்த வாரத்தின் சிறந்த சைபர் அச்சுறுத்தல்கள்" பற்றிய நிர்வாக சுருக்கத்தை உருவாக்கலாம். பாரம்பரியமாக, இந்த அளவிலான பகுப்பாய்வு மற்றும் அறிக்கையிடல் குறிப்பிடத்தக்க மனித முயற்சியை எடுத்தது; இப்போது நன்கு வடிவமைக்கப்பட்ட மாதிரி அதை நொடிகளில் வரைவு செய்ய முடியும், மனிதர்கள் வெளியீட்டை மட்டுமே செம்மைப்படுத்துகிறார்கள். ZeroFox போன்ற நிறுவனங்கள் FoxGPT ஐ , இது தீங்கிழைக்கும் உள்ளடக்கம் மற்றும் ஃபிஷிங் தரவு உட்பட "பெரிய தரவுத்தொகுப்புகளில் நுண்ணறிவின் பகுப்பாய்வு மற்றும் சுருக்கத்தை துரிதப்படுத்த" சைபர் பாதுகாப்பில் ஜெனரேட்டிவ் AI ஐ எவ்வாறு பயன்படுத்தலாம்? 10 நிஜ உலக எடுத்துக்காட்டுகள் ). வாசிப்பு மற்றும் குறுக்கு-குறிப்பு தரவை அதிக அளவில் உயர்த்துவதன் மூலம், AI அச்சுறுத்தல் இன்டெல் குழுக்கள் முடிவெடுப்பதிலும் பதிலளிப்பதிலும் கவனம் செலுத்த உதவுகிறது.
மற்றொரு பயன்பாட்டு நிகழ்வு உரையாடல் அச்சுறுத்தல் வேட்டை . ஒரு பாதுகாப்பு ஆய்வாளர் ஒரு AI உதவியாளருடன் தொடர்புகொள்வதை கற்பனை செய்து பாருங்கள்: “கடந்த 48 மணி நேரத்தில் தரவு வெளியேற்றத்தின் ஏதேனும் அறிகுறிகளைக் காட்டு” அல்லது “இந்த வாரம் தாக்குபவர்கள் பயன்படுத்தும் புதிய பாதிப்புகள் என்ன?” AI வினவலை விளக்கலாம், உள் பதிவுகள் அல்லது வெளிப்புற இன்டெல் மூலங்களைத் தேடலாம், மேலும் தெளிவான பதிலுடன் அல்லது தொடர்புடைய சம்பவங்களின் பட்டியலுடன் கூட பதிலளிக்கலாம். இது வெகு தொலைவில் இல்லை - நவீன பாதுகாப்பு தகவல் மற்றும் நிகழ்வு மேலாண்மை (SIEM) அமைப்புகள் இயற்கையான மொழி வினவலை இணைக்கத் தொடங்கியுள்ளன. எடுத்துக்காட்டாக, IBM இன் QRadar பாதுகாப்பு தொகுப்பு, 2024 இல் ஒரு சம்பவத்தின் "சுருக்கமான தாக்குதல் பாதை பற்றிய குறிப்பிட்ட கேள்விகளைக் கேட்கவும்" "மிகவும் பொருத்தமான அச்சுறுத்தல் நுண்ணறிவை விளக்கி சுருக்கவும்" ( சைபர் பாதுகாப்பில் ஜெனரேட்டிவ் AI ஐ எவ்வாறு பயன்படுத்தலாம்? 10 நிஜ உலக எடுத்துக்காட்டுகள் ). அடிப்படையில், ஜெனரேட்டிவ் AI தொழில்நுட்பத் தரவுகளின் மலைகளை தேவைக்கேற்ப அரட்டை அளவிலான நுண்ணறிவுகளாக மாற்றுகிறது.
அனைத்துத் துறைகளிலும், இது பெரிய தாக்கங்களைக் கொண்டுள்ளது. ஒரு சுகாதார வழங்குநர், மருத்துவமனைகளை குறிவைக்கும் சமீபத்திய ransomware குழுக்கள் குறித்து புதுப்பித்த நிலையில் இருக்க, ஒரு ஆய்வாளரை முழுநேர ஆராய்ச்சிக்கு அர்ப்பணிக்காமல், AI ஐப் பயன்படுத்தலாம். ஒரு சில்லறை நிறுவனத்தின் SOC, ஸ்டோர் ஐடி ஊழியர்களுக்கு விளக்கமளிக்கும் போது புதிய POS தீம்பொருள் தந்திரோபாயங்களை விரைவாகச் சுருக்கமாகக் கூறலாம். மேலும், பல்வேறு நிறுவனங்களின் அச்சுறுத்தல் தரவு ஒருங்கிணைக்கப்பட வேண்டிய அரசாங்கத்தில், முக்கிய எச்சரிக்கைகளை முன்னிலைப்படுத்தும் ஒருங்கிணைந்த அறிக்கைகளை AI உருவாக்க முடியும். அச்சுறுத்தல் நுண்ணறிவு சேகரிப்பு மற்றும் விளக்கத்தை தானியங்குபடுத்துவதன் , ஜெனரேட்டிவ் AI, நிறுவனங்கள் வளர்ந்து வரும் அச்சுறுத்தல்களுக்கு விரைவாக எதிர்வினையாற்ற உதவுகிறது மற்றும் சத்தத்தில் மறைந்திருக்கும் முக்கியமான எச்சரிக்கைகளைத் தவறவிடுவதற்கான அபாயத்தைக் குறைக்கிறது.
பாதுகாப்பு செயல்பாட்டு மையம் (SOC) உகப்பாக்கம்
பாதுகாப்பு செயல்பாட்டு மையங்கள் எச்சரிக்கை சோர்வு மற்றும் அதிகப்படியான தரவுகளுக்குப் பெயர் பெற்றவை. ஒரு பொதுவான SOC ஆய்வாளர் ஒவ்வொரு நாளும் ஆயிரக்கணக்கான எச்சரிக்கைகள் மற்றும் நிகழ்வுகளைக் கடந்து, சாத்தியமான சம்பவங்களை ஆராயலாம். வழக்கமான வேலையை தானியக்கமாக்குவதன் மூலமும், அறிவார்ந்த சுருக்கங்களை வழங்குவதன் மூலமும், சில பதில்களை ஒழுங்கமைப்பதன் மூலமும் ஜெனரேட்டிவ் AI SOC களில் ஒரு சக்தி பெருக்கியாக செயல்படுகிறது. SOC பணிப்பாய்வுகளை மேம்படுத்துவதே இதன் குறிக்கோள், இதனால் மனித ஆய்வாளர்கள் மிக முக்கியமான சிக்கல்களில் கவனம் செலுத்த முடியும், அதே நேரத்தில் AI துணை பைலட் மீதமுள்ளவற்றைக் கையாள முடியும்.
"ஆய்வாளரின் துணை பைலட்டாக" ஜெனரேட்டிவ் AI ஐப் பயன்படுத்துவது . முன்னர் குறிப்பிட்ட மைக்ரோசாப்டின் பாதுகாப்பு துணை பைலட் இதற்கு ஒரு எடுத்துக்காட்டு: இது "பாதுகாப்பு ஆய்வாளரின் பணியை மாற்றுவதற்குப் பதிலாக உதவ வடிவமைக்கப்பட்டுள்ளது," சம்பவ விசாரணைகள் மற்றும் அறிக்கையிடலுக்கு உதவுகிறது ( மைக்ரோசாப்ட் பாதுகாப்பு துணை பைலட் என்பது சைபர் பாதுகாப்பிற்கான ஒரு புதிய GPT-4 AI உதவியாளர் | தி வெர்ஜ் ). நடைமுறையில், இதன் பொருள் ஒரு ஆய்வாளர் மூலத் தரவை உள்ளிடலாம் - ஃபயர்வால் பதிவுகள், நிகழ்வு காலவரிசை அல்லது ஒரு சம்பவ விளக்கம் - மற்றும் அதை பகுப்பாய்வு செய்ய அல்லது சுருக்கமாகக் கூற AI ஐக் கேட்கலாம். துணை பைலட், "அதிகாலை 2:35 மணிக்கு, IP X இலிருந்து ஒரு சந்தேகத்திற்கிடமான உள்நுழைவு சர்வர் Y இல் வெற்றி பெற்றது, அதைத் தொடர்ந்து அசாதாரண தரவு பரிமாற்றங்கள், அந்த சேவையகத்தின் சாத்தியமான மீறலைக் குறிக்கிறது" போன்ற ஒரு கதையை வெளியிடலாம். நேரம் சாராம்சமாக இருக்கும்போது இந்த வகையான உடனடி சூழல்மயமாக்கல் விலைமதிப்பற்றது.
AI துணை விமானிகள் நிலை-1 சோதனைச் சுமையைக் குறைக்கவும் உதவுகிறார்கள். தொழில்துறை தரவுகளின்படி, ஒரு பாதுகாப்புக் குழு வாரத்திற்கு 15 மணிநேரம் சுமார் 22,000 விழிப்பூட்டல்கள் மற்றும் தவறான நேர்மறைகளை வரிசைப்படுத்த மட்டுமே செலவிட முடியும் ( சைபர் பாதுகாப்பில் உருவாக்க AIக்கான 6 பயன்பாட்டு வழக்குகள் [+ எடுத்துக்காட்டுகள்] ). உருவாக்க AI மூலம், இந்த எச்சரிக்கைகளில் பலவற்றை தானாகவே வரிசைப்படுத்த முடியும் - AI தெளிவாகத் தீங்கற்றவற்றை (பகுத்தறிவு கொடுக்கப்பட்டால்) நிராகரிக்கலாம் மற்றும் உண்மையிலேயே கவனம் தேவைப்படுபவற்றை முன்னிலைப்படுத்தலாம், சில சமயங்களில் முன்னுரிமையைக் கூட பரிந்துரைக்கலாம். உண்மையில், சூழலைப் புரிந்துகொள்வதில் உருவாக்க AI இன் வலிமை என்பது தனிமையில் பாதிப்பில்லாததாகத் தோன்றக்கூடிய எச்சரிக்கைகளை குறுக்கு-தொடர்புபடுத்த முடியும், ஆனால் ஒன்றாக பல-நிலை தாக்குதலைக் குறிக்கிறது. இது "எச்சரிக்கை சோர்வு" காரணமாக தாக்குதலைத் தவறவிடுவதற்கான வாய்ப்பைக் குறைக்கிறது.
SOC ஆய்வாளர்கள் வேட்டையாடுதல் மற்றும் விசாரணைகளை விரைவுபடுத்த AI உடன் இயற்கையான மொழியையும் பயன்படுத்துகின்றனர். எடுத்துக்காட்டாக, SentinelOne இன் Purple AI தளம், LLM-அடிப்படையிலான இடைமுகத்தை நிகழ்நேர பாதுகாப்புத் தரவுகளுடன் இணைக்கிறது, இதனால் ஆய்வாளர்கள் "சிக்கலான அச்சுறுத்தல்-வேட்டை கேள்விகளை எளிய ஆங்கிலத்தில் கேட்கவும் விரைவான, துல்லியமான பதில்களைப் பெறவும்" ( சைபர் பாதுகாப்பில் ஜெனரேட்டிவ் AI ஐ எவ்வாறு பயன்படுத்தலாம்? 10 நிஜ உலக எடுத்துக்காட்டுகள் "கடந்த மாதத்தில் badguy123[.]com டொமைனுடன் ஏதேனும் இறுதிப் புள்ளிகள் தொடர்பு கொள்ளப்பட்டதா?" என தட்டச்சு செய்யலாம் , மேலும் பதிலளிக்க Purple AI பதிவுகள் மூலம் தேடும். இது தரவுத்தள வினவல்கள் அல்லது ஸ்கிரிப்ட்களை எழுதுவதிலிருந்து பகுப்பாய்வாளரைக் காப்பாற்றுகிறது - AI அதை மறைமுகமாகச் செய்கிறது. ஜூனியர் ஆய்வாளர்கள் வினவல் மொழிகளில் திறமையான ஒரு அனுபவமிக்க பொறியாளர் முன்பு தேவைப்படும் பணிகளைக் கையாள முடியும், AI உதவி மூலம் குழுவை திறம்பட மேம்படுத்த முடியும் . உண்மையில், ஆய்வாளர்கள், உருவாக்க AI வழிகாட்டுதல் "அவர்களின் திறன்களையும் திறமையையும் அதிகரிக்கிறது" , ஏனெனில் ஜூனியர் ஊழியர்கள் இப்போது AI இலிருந்து தேவைக்கேற்ப குறியீட்டு ஆதரவு அல்லது பகுப்பாய்வு உதவிக்குறிப்புகளைப் பெறலாம், இதனால் மூத்த குழு உறுப்பினர்களை எப்போதும் உதவி கேட்பதை நம்பியிருப்பது குறைகிறது ( சைபர் பாதுகாப்பில் உருவாக்க AIக்கான 6 பயன்பாட்டு வழக்குகள் [+ எடுத்துக்காட்டுகள்] ).
மற்றொரு SOC உகப்பாக்கம் என்பது தானியங்கி சம்பவச் சுருக்கம் மற்றும் ஆவணப்படுத்தல் . ஒரு சம்பவம் கையாளப்பட்ட பிறகு, யாராவது அறிக்கையை எழுத வேண்டும் - இது பலருக்கு சலிப்பை ஏற்படுத்தும் பணியாகும். ஜெனரேட்டிவ் AI தடயவியல் தரவை (கணினி பதிவுகள், தீம்பொருள் பகுப்பாய்வு, செயல்களின் காலவரிசை) எடுத்து முதல்-வரைவு சம்பவ அறிக்கையை உருவாக்க முடியும். IBM இந்த திறனை QRadar இல் உருவாக்குகிறது, இதனால் "ஒரே கிளிக்கில்" ஒரு சம்பவத்தின் சுருக்கத்தை வெவ்வேறு பங்குதாரர்களுக்கு (நிர்வாகிகள், IT குழுக்கள் போன்றவை) உருவாக்க முடியும் ( சைபர் பாதுகாப்பில் ஜெனரேட்டிவ் AI ஐ எவ்வாறு பயன்படுத்தலாம்? 10 நிஜ உலக எடுத்துக்காட்டுகள் ). இது நேரத்தை மிச்சப்படுத்துவது மட்டுமல்லாமல், அறிக்கையில் எதுவும் கவனிக்கப்படாமல் இருப்பதை உறுதி செய்கிறது, ஏனெனில் AI அனைத்து தொடர்புடைய விவரங்களையும் தொடர்ந்து சேர்க்க முடியும். அதேபோல், இணக்கம் மற்றும் தணிக்கைக்கு, AI சம்பவத் தரவுகளின் அடிப்படையில் படிவங்கள் அல்லது ஆதார அட்டவணைகளை நிரப்ப முடியும்.
நிஜ உலக விளைவுகள் கவர்ச்சிகரமானவை. ஸ்விம்லேனின் AI-இயக்கப்படும் SOAR (பாதுகாப்பு இசைக்குழு, ஆட்டோமேஷன் மற்றும் பதில்)-ஐ ஆரம்பத்தில் ஏற்றுக்கொண்டவர்கள் மிகப்பெரிய உற்பத்தித்திறன் ஆதாயங்களைப் புகாரளிக்கின்றனர் - எடுத்துக்காட்டாக, குளோபல் டேட்டா சிஸ்டம்ஸ், அவர்களின் SecOps குழு மிகப் பெரிய கேஸ் லோடை நிர்வகிப்பதைக் கண்டது; ஒரு இயக்குனர், AI-இயக்கப்படும் ஆட்டோமேஷன் இல்லாமல் 20 ஊழியர்களை எடுக்கும்" சைபர் செக்யூரிட்டியில் ஜெனரேட்டிவ் AI ஐ எவ்வாறு பயன்படுத்தலாம் ). வேறு வார்த்தைகளில் கூறுவதானால், SOC இல் உள்ள AI திறனைப் பெருக்க முடியும் . தொழில்கள் முழுவதும், அது கிளவுட் பாதுகாப்பு எச்சரிக்கைகளைக் கையாளும் தொழில்நுட்ப நிறுவனமாக இருந்தாலும் சரி அல்லது OT அமைப்புகளைக் கண்காணிக்கும் உற்பத்தி ஆலையாக இருந்தாலும் சரி, SOC குழுக்கள் ஜெனரேட்டிவ் AI உதவியாளர்களைத் தழுவுவதன் மூலம் விரைவான கண்டறிதல் மற்றும் பதிலைப் பெறுகின்றன, குறைவான தவறவிட்ட சம்பவங்கள் மற்றும் மிகவும் திறமையான செயல்பாடுகளைப் பெறுகின்றன. இது புத்திசாலித்தனமாக வேலை செய்வது பற்றியது - இயந்திரங்கள் மீண்டும் மீண்டும் நிபுணத்துவம் பெற்ற மற்றும் தரவு-கனமான பணிகளைக் கையாள அனுமதிப்பதன் மூலம் மனிதர்கள் தங்கள் உள்ளுணர்வு மற்றும் நிபுணத்துவத்தைப் பயன்படுத்த முடியும்.
பாதிப்பு மேலாண்மை மற்றும் அச்சுறுத்தல் உருவகப்படுத்துதல்
மென்பொருள் அல்லது அமைப்புகளில் உள்ள பலவீனங்களை - தாக்குபவர்கள் சுரண்டக்கூடிய - பாதிப்புகளைக் கண்டறிந்து நிர்வகிப்பது ஒரு முக்கிய சைபர் பாதுகாப்பு செயல்பாடாகும். ஜெனரேட்டிவ் AI என்பது கண்டுபிடிப்பை விரைவுபடுத்துவதன் மூலமும், பேட்ச் முன்னுரிமைப்படுத்துவதில் உதவுவதன் மூலமும், தயார்நிலையை மேம்படுத்த அந்த பாதிப்புகள் மீதான தாக்குதல்களை உருவகப்படுத்துவதன் மூலமும் பாதிப்பு மேலாண்மையை மேம்படுத்துகிறது. சாராம்சத்தில், நிறுவனங்கள் தங்கள் கவசத்தில் உள்ள துளைகளை விரைவாகக் கண்டுபிடித்து சரிசெய்ய AI உதவுகிறது, மேலும் உண்மையான தாக்குபவர்கள் செய்வதற்கு முன்பு பாதுகாப்புகளை முன்கூட்டியே
தானியங்கி குறியீடு மதிப்பாய்வு மற்றும் பாதிப்பு கண்டறிதலுக்காக ஜெனரேட்டிவ் AI ஐப் பயன்படுத்துவது ஒரு குறிப்பிடத்தக்க பயன்பாடாகும் . பெரிய குறியீடு தளங்கள் (குறிப்பாக மரபு அமைப்புகள்) பெரும்பாலும் கவனிக்கப்படாமல் போகும் பாதுகாப்பு குறைபாடுகளைக் கொண்டுள்ளன. ஜெனரேட்டிவ் AI மாதிரிகள் பாதுகாப்பான குறியீட்டு நடைமுறைகள் மற்றும் பொதுவான பிழை வடிவங்கள் குறித்து பயிற்சி அளிக்கப்படலாம், பின்னர் சாத்தியமான பாதிப்புகளைக் கண்டறிய மூல குறியீடு அல்லது தொகுக்கப்பட்ட பைனரிகளில் கட்டவிழ்த்து விடப்படலாம். எடுத்துக்காட்டாக, NVIDIA ஆராய்ச்சியாளர்கள் ஒரு ஜெனரேட்டிவ் AI பைப்லைனை உருவாக்கினர், இது மரபு மென்பொருள் கொள்கலன்களை பகுப்பாய்வு செய்து "அதிக துல்லியத்துடன் - மனித நிபுணர்களை விட 4× வேகமாக" பாதிப்புகளை அடையாளம் காண முடியும். ( சைபர் பாதுகாப்பில் ஜெனரேட்டிவ் AI க்கான 6 பயன்பாட்டு வழக்குகள் [+ எடுத்துக்காட்டுகள்] ). பாதுகாப்பற்ற குறியீடு எப்படி இருக்கும் என்பதை AI அடிப்படையில் கற்றுக்கொண்டது மற்றும் ஆபத்தான செயல்பாடுகள் மற்றும் நூலகங்களைக் கொடியிட பல தசாப்தங்கள் பழமையான மென்பொருளை ஸ்கேன் செய்ய முடிந்தது, இது கையேடு குறியீடு தணிக்கையின் பொதுவாக மெதுவான செயல்முறையை பெரிதும் துரிதப்படுத்தியது. இந்த வகையான கருவி நிதி அல்லது அரசாங்கம் போன்ற பெரிய, பழைய குறியீடு தளங்களை நம்பியிருக்கும் தொழில்களுக்கு ஒரு கேம்-சேஞ்சராக இருக்கலாம் - ஊழியர்கள் கண்டுபிடிக்க மாதங்கள் அல்லது ஆண்டுகள் ஆகக்கூடிய சிக்கல்களைத் தோண்டி எடுப்பதன் மூலம் AI பாதுகாப்பை நவீனப்படுத்த உதவுகிறது (எப்போதாவது).
பாதிப்பு மேலாண்மை பணிப்பாய்வுகளில், ஜெனரேட்டிவ் AI உதவுகிறது . டெனபிளின் எக்ஸ்போஷர்ஏஐ , ஆய்வாளர்கள் பாதிப்புத் தரவை எளிய மொழியில் வினவவும் உடனடி பதில்களைப் பெறவும் ஜெனரேட்டிவ் AI ஐப் பயன்படுத்துகின்றன ( சைபர் செக்யூரிட்டியில் ஜெனரேட்டிவ் AI ஐ எவ்வாறு பயன்படுத்தலாம்? 10 நிஜ உலக எடுத்துக்காட்டுகள் ). கொடுக்கப்பட்ட முக்கியமான பாதிப்புக்கு எக்ஸ்போஷர்ஏஐ "ஒரு கதையில் முழுமையான தாக்குதல் பாதையைச் சுருக்கமாகக் கூறலாம்" , ஒரு தாக்குபவர் அதை மற்ற பலவீனங்களுடன் எவ்வாறு ஒரு அமைப்பை சமரசம் செய்ய முடியும் என்பதை விளக்குகிறது. இது சரிசெய்வதற்கான நடவடிக்கைகளை பரிந்துரைக்கிறது மற்றும் ஆபத்து பற்றிய தொடர்ச்சியான கேள்விகளுக்கு பதிலளிக்கிறது. இதன் பொருள் ஒரு புதிய முக்கியமான CVE (பொதுவான பாதிப்புகள் மற்றும் வெளிப்பாடுகள்) அறிவிக்கப்படும்போது, ஒரு ஆய்வாளர் AI ஐக் கேட்கலாம், "இந்த CVE ஆல் எங்கள் சேவையகங்களில் ஏதேனும் பாதிக்கப்பட்டுள்ளதா, நாங்கள் பேட்ச் செய்யாவிட்டால் மோசமான சூழ்நிலை என்ன?" மற்றும் நிறுவனத்தின் சொந்த ஸ்கேன் தரவிலிருந்து பெறப்பட்ட தெளிவான மதிப்பீட்டைப் பெறலாம். பாதிப்புகளை சூழ்நிலைப்படுத்துவதன் மூலம் (எ.கா. இது இணையத்திற்கும் உயர் மதிப்புள்ள சேவையகத்திற்கும் வெளிப்படும், எனவே இது முதன்மையானது), ஜெனரேட்டிவ் AI வரையறுக்கப்பட்ட வளங்களுடன் அணிகளை புத்திசாலித்தனமாக பேட்ச் செய்ய உதவுகிறது.
அறியப்பட்ட பாதிப்புகளைக் கண்டறிந்து நிர்வகிப்பதோடு மட்டுமல்லாமல், ஜெனரேட்டிவ் AI ஊடுருவல் சோதனை மற்றும் தாக்குதல் உருவகப்படுத்துதலுக்கும் - அடிப்படையில் அறியப்படாத பாதிப்புகளைக் கண்டறிதல் அல்லது பாதுகாப்புக் கட்டுப்பாடுகளைச் சோதித்தல். ஜெனரேட்டிவ் AI வகையின் ஒரு வகை ஜெனரேட்டிவ் எதிரி நெட்வொர்க்குகள் (GANகள்), உண்மையான நெட்வொர்க் போக்குவரத்து அல்லது பயனர் நடத்தையைப் பின்பற்றும் செயற்கைத் தரவை உருவாக்கப் பயன்படுத்தப்பட்டுள்ளன, இதில் மறைக்கப்பட்ட தாக்குதல் முறைகள் அடங்கும். ஊடுருவல் கண்டறிதல் அமைப்புகளைப் பயிற்றுவிக்க யதார்த்தமான பூஜ்ஜிய-நாள் தாக்குதல் போக்குவரத்தை உருவாக்க GANகளைப் பயன்படுத்த 2023 ஆம் ஆண்டு ஆய்வு பரிந்துரைத்தது ( சைபர் பாதுகாப்பில் ஜெனரேட்டிவ் AIக்கான 6 பயன்பாட்டு வழக்குகள் [+ எடுத்துக்காட்டுகள்] ). AI-வடிவமைக்கப்பட்ட தாக்குதல் காட்சிகளை (உற்பத்தி நெட்வொர்க்குகளில் உண்மையான தீம்பொருளைப் பயன்படுத்துவதற்கான ஆபத்தை ஏற்படுத்தாதவை) IDS-க்கு வழங்குவதன் மூலம், நிறுவனங்கள் உண்மையில் அவர்களால் தாக்கப்படுவதற்கு காத்திருக்காமல் புதிய அச்சுறுத்தல்களை அடையாளம் காண தங்கள் பாதுகாப்புகளைப் பயிற்றுவிக்க முடியும். இதேபோல், AI ஒரு அமைப்பை ஆய்வு செய்யும் தாக்குபவர்களை உருவகப்படுத்த முடியும் - எடுத்துக்காட்டாக, ஏதேனும் வெற்றி பெறுகிறதா என்பதைப் பார்க்க பாதுகாப்பான சூழலில் பல்வேறு சுரண்டல் நுட்பங்களை தானாகவே முயற்சிக்கும். அமெரிக்க பாதுகாப்பு மேம்பட்ட ஆராய்ச்சி திட்ட நிறுவனம் (DARPA) இங்கே வாக்குறுதியைக் காண்கிறது: அதன் 2023 AI சைபர் சேலஞ்ச், போட்டியின் ஒரு பகுதியாக "திறந்த மூல மென்பொருளில் உள்ள பாதிப்புகளை தானாகவே கண்டறிந்து சரிசெய்ய" DARPA AI ஐ உருவாக்குவதை நோக்கமாகக் கொண்டுள்ளது, போர்வீரர்கள் நம்பக்கூடிய தன்னாட்சி பயன்பாடுகள் > அமெரிக்க பாதுகாப்புத் துறை > பாதுகாப்புத் துறை செய்திகள் ). இந்த முயற்சி, AI அறியப்பட்ட ஓட்டைகளை மட்டும் ஒட்டுவதற்கு உதவுவதில்லை என்பதை அடிக்கோடிட்டுக் காட்டுகிறது; இது புதியவற்றை தீவிரமாகக் கண்டுபிடித்து திருத்தங்களை முன்மொழிகிறது, இது பாரம்பரியமாக திறமையான (மற்றும் விலையுயர்ந்த) பாதுகாப்பு ஆராய்ச்சியாளர்களுக்கு மட்டுமே வரையறுக்கப்பட்ட பணியாகும்.
ஜெனரேட்டிவ் AI, பாதுகாப்பிற்காக புத்திசாலித்தனமான ஹனிபாட்களையும் டிஜிட்டல் இரட்டையர்களையும் "உண்மையானவற்றைப் பிரதிபலிக்கவும் ஹேக்கர்களை ஈர்க்கவும் டிஜிட்டல் அமைப்புகளை குளோன் செய்ய முடியும்" ( சைபர் செக்யூரிட்டியில் ஜெனரேட்டிவ் AIக்கான 6 பயன்பாட்டு வழக்குகள் [+ எடுத்துக்காட்டுகள்] AI ஆல் மேம்படுத்தப்பட்ட ஏமாற்றத்தைப் பயன்படுத்தி தாக்குபவர்களை எதிர்கொள்ள ஒரு எதிர்கால வழியை வழங்குகிறது
தொழில்கள் முழுவதும், வேகமான மற்றும் புத்திசாலித்தனமான பாதிப்பு மேலாண்மை என்பது குறைவான மீறல்களைக் குறிக்கிறது. எடுத்துக்காட்டாக, சுகாதார தகவல் தொழில்நுட்பத்தில், AI ஒரு மருத்துவ சாதனத்தில் பாதிக்கப்படக்கூடிய காலாவதியான நூலகத்தை விரைவாகக் கண்டறிந்து, எந்தவொரு தாக்குபவர் அதைச் சுரண்டுவதற்கு முன்பு ஒரு ஃபார்ம்வேர் சரிசெய்தலைத் தூண்டும். வங்கியில், வாடிக்கையாளர் தரவு அனைத்து சூழ்நிலைகளிலும் பாதுகாப்பாக இருப்பதை உறுதிசெய்ய, AI ஒரு புதிய பயன்பாட்டின் மீது உள் தாக்குதலை உருவகப்படுத்த முடியும். இதனால், நிறுவனங்களின் பாதுகாப்பு நிலைப்பாட்டிற்கான நுண்ணோக்கியாகவும், மன அழுத்தத்தைச் சோதிக்கும் கருவியாகவும் ஜெனரேட்டிவ் AI செயல்படுகிறது: இது மறைக்கப்பட்ட குறைபாடுகளை வெளிச்சம் போட்டுக் காட்டுகிறது மற்றும் மீள்தன்மையை உறுதி செய்வதற்காக கற்பனையான வழிகளில் அமைப்புகளை அழுத்துகிறது.
பாதுகாப்பான குறியீடு உருவாக்கம் மற்றும் மென்பொருள் மேம்பாடு
ஜெனரேட்டிவ் AI இன் திறமைகள் தாக்குதல்களைக் கண்டறிவதோடு மட்டும் நின்றுவிடவில்லை - அவை தொடக்கத்திலிருந்தே மிகவும் பாதுகாப்பான அமைப்புகளை உருவாக்குவதற்கும் . மென்பொருள் மேம்பாட்டில், AI குறியீடு ஜெனரேட்டர்கள் (GitHub Copilot, OpenAI Codex போன்றவை) குறியீட்டுத் துணுக்குகளை அல்லது முழு செயல்பாடுகளையும் பரிந்துரைப்பதன் மூலம் டெவலப்பர்கள் குறியீட்டை வேகமாக எழுத உதவும். சைபர் பாதுகாப்பு கோணம் இந்த AI-பரிந்துரைக்கப்பட்ட குறியீடு துண்டுகள் பாதுகாப்பானவை என்பதை உறுதி செய்வதோடு குறியீட்டு நடைமுறைகளை மேம்படுத்த AI ஐப் பயன்படுத்துவதாகும்.
ஒருபுறம், ஜெனரேட்டிவ் AI, பாதுகாப்பு சிறந்த நடைமுறைகளை உள்ளடக்கிய ஒரு குறியீட்டு உதவியாளராகச் "பைத்தானில் கடவுச்சொல் மீட்டமைப்பு செயல்பாட்டை உருவாக்கு" என்ற AI கருவியைத் தூண்டலாம், மேலும் செயல்பாட்டுடன் மட்டுமல்லாமல் பாதுகாப்பான வழிகாட்டுதல்களையும் (எ.கா. சரியான உள்ளீட்டு சரிபார்ப்பு, பதிவு செய்தல், தகவல் கசியாமல் பிழை கையாளுதல் போன்றவை) பின்பற்றும் குறியீட்டை சிறந்த முறையில் திரும்பப் பெறலாம். விரிவான பாதுகாப்பான குறியீடு எடுத்துக்காட்டுகளில் பயிற்சி பெற்ற அத்தகைய உதவியாளர், பாதிப்புகளுக்கு வழிவகுக்கும் மனித பிழைகளைக் குறைக்க உதவும். உதாரணமாக, ஒரு டெவலப்பர் பயனர் உள்ளீட்டை சுத்தப்படுத்த மறந்துவிட்டால் (SQL ஊசி அல்லது இதே போன்ற சிக்கல்களுக்கான கதவைத் திறப்பது), ஒரு AI அதை முன்னிருப்பாகச் சேர்க்கலாம் அல்லது அவர்களை எச்சரிக்கலாம். சில AI குறியீட்டு கருவிகள் இப்போது பாதுகாப்பு சார்ந்த தரவுகளுடன் நன்றாகச் சரிசெய்யப்பட்டு வருகின்றன - அடிப்படையில், பாதுகாப்பு மனசாட்சியுடன் AI ஜோடி நிரலாக்கம் .
இருப்பினும், ஒரு மறுபக்கமும் உள்ளது: முறையாக நிர்வகிக்கப்படாவிட்டால், ஜெனரேட்டிவ் AI எளிதில் பாதிப்புகளை அறிமுகப்படுத்தக்கூடும். Sophos பாதுகாப்பு நிபுணர் பென் வெர்ஷேரன் குறிப்பிட்டது போல, குறியீட்டுக்கு ஜெனரேட்டிவ் AI ஐப் பயன்படுத்துவது "சுருக்கமான, சரிபார்க்கக்கூடிய குறியீட்டிற்கு நல்லது, ஆனால் தேர்வு செய்யப்படாத குறியீடு உற்பத்தி அமைப்புகளில் ஒருங்கிணைக்கப்படும்போது ஆபத்தானது". ஆபத்து என்னவென்றால், ஒரு AI தர்க்கரீதியாக சரியான குறியீட்டை உருவாக்கக்கூடும், இது ஒரு நிபுணர் அல்லாதவர் கவனிக்காத வழிகளில் பாதுகாப்பற்றது. மேலும், தீங்கிழைக்கும் நடிகர்கள் வேண்டுமென்றே பொது AI மாதிரிகளை பாதிக்கப்படக்கூடிய குறியீடு வடிவங்களுடன் (தரவு விஷத்தின் ஒரு வடிவம்) விதைப்பதன் மூலம் பாதிக்கலாம், இதனால் AI பாதுகாப்பற்ற குறியீட்டை பரிந்துரைக்கிறது. பெரும்பாலான டெவலப்பர்கள் பாதுகாப்பு நிபுணர்கள் அல்ல , எனவே ஒரு AI ஒரு வசதியான தீர்வை பரிந்துரைத்தால், அவர்கள் அதை ஒரு குறைபாடு இருப்பதை உணராமல் குருட்டுத்தனமாகப் பயன்படுத்தலாம் ( சைபர் பாதுகாப்பில் ஜெனரேட்டிவ் AI க்கான 6 பயன்பாட்டு வழக்குகள் [+ எடுத்துக்காட்டுகள்] ). இந்தக் கவலை உண்மையானது - உண்மையில், குறியீட்டுக்கு AI ஐப் பயன்படுத்துவதில் இது போன்ற பொதுவான அபாயங்களை கோடிட்டுக் காட்டும் LLM களுக்கு (பெரிய மொழி மாதிரிகள்) இப்போது OWASP முதல் 10 பட்டியல் உள்ளது.
இந்தச் சிக்கல்களை எதிர்கொள்ள, "உருவாக்க AI உடன் ஜெனரேட்டிவ் AI ஐ எதிர்த்துப் போராடுவது" . நடைமுறையில், அதாவது குறியீட்டை மதிப்பாய்வு செய்து சோதிக்க . ஒரு AI புதிய குறியீட்டை ஸ்கேன் செய்து, மனித குறியீடு மதிப்பாய்வாளரை விட மிக வேகமாகச் செயல்படும் மற்றும் சாத்தியமான பாதிப்புகள் அல்லது தர்க்க சிக்கல்களைக் குறிக்கும். மென்பொருள் மேம்பாட்டு வாழ்க்கைச் சுழற்சியில் ஒருங்கிணைக்கும் கருவிகள் வெளிவருவதை நாம் ஏற்கனவே காண்கிறோம்: குறியீடு எழுதப்பட்டுள்ளது (ஒருவேளை AI உதவியுடன்), பின்னர் பாதுகாப்பான குறியீடு கொள்கைகளில் பயிற்சி பெற்ற ஒரு ஜெனரேட்டிவ் மாதிரி அதை மதிப்பாய்வு செய்து ஏதேனும் கவலைகள் (நீக்கப்பட்ட செயல்பாடுகளின் பயன்பாடு, அங்கீகாரச் சரிபார்ப்புகள் காணாமல் போதல் போன்றவை) பற்றிய அறிக்கையை உருவாக்குகிறது. முன்னர் குறிப்பிடப்பட்ட NVIDIAவின் ஆராய்ச்சி, குறியீட்டில் 4× வேகமான பாதிப்பு கண்டறிதலை அடைந்தது, பாதுகாப்பான குறியீடு பகுப்பாய்விற்காக AI ஐப் பயன்படுத்துவதற்கான ஒரு எடுத்துக்காட்டு ( சைபர் பாதுகாப்பில் ஜெனரேட்டிவ் AI க்கான 6 பயன்பாட்டு வழக்குகள் [+ எடுத்துக்காட்டுகள்] ).
பாதுகாப்பான உள்ளமைவுகள் மற்றும் ஸ்கிரிப்ட்களை உருவாக்குவதில் ஜெனரேட்டிவ் AI உதவ முடியும் . எடுத்துக்காட்டாக, ஒரு நிறுவனம் பாதுகாப்பான கிளவுட் உள்கட்டமைப்பைப் பயன்படுத்த வேண்டும் என்றால், ஒரு பொறியாளர் ஒரு AI-யிடம் பாதுகாப்புக் கட்டுப்பாடுகளுடன் (சரியான நெட்வொர்க் பிரிவு, குறைந்தபட்ச சலுகை IAM பாத்திரங்கள் போன்றவை) உள்ளமைக்கப்பட்ட உள்ளமைவு ஸ்கிரிப்ட்களை (குறியீடாக உள்கட்டமைப்பு) உருவாக்கக் கேட்கலாம். இதுபோன்ற ஆயிரக்கணக்கான உள்ளமைவுகளில் பயிற்சி பெற்ற AI, பொறியாளர் பின்னர் நன்றாகச் சரிசெய்யும் ஒரு அடிப்படையை உருவாக்க முடியும். இது அமைப்புகளின் பாதுகாப்பான அமைப்பை துரிதப்படுத்துகிறது மற்றும் தவறான உள்ளமைவு பிழைகளைக் குறைக்கிறது - இது கிளவுட் பாதுகாப்பு சம்பவங்களின் பொதுவான ஆதாரமாகும்.
சில நிறுவனங்கள் பாதுகாப்பான குறியீட்டு முறைகளின் அறிவுத் தளத்தைப் பராமரிக்க ஜெனரேட்டிவ் AI ஐப் பயன்படுத்துகின்றன. ஒரு குறிப்பிட்ட அம்சத்தை எவ்வாறு பாதுகாப்பாக செயல்படுத்துவது என்று ஒரு டெவலப்பருக்குத் தெரியாவிட்டால், நிறுவனத்தின் கடந்தகால திட்டங்கள் மற்றும் பாதுகாப்பு வழிகாட்டுதல்களிலிருந்து கற்றுக்கொண்ட உள் AI ஐ அவர்கள் வினவலாம். செயல்பாட்டுத் தேவைகள் மற்றும் நிறுவனத்தின் பாதுகாப்புத் தரநிலைகள் இரண்டிற்கும் பொருந்தக்கூடிய பரிந்துரைக்கப்பட்ட அணுகுமுறை அல்லது குறியீட்டுத் துணுக்கை AI வழங்கக்கூடும். இந்த அணுகுமுறை Secureframe இன் கேள்வித்தாள் ஆட்டோமேஷன் , இது ஒரு நிறுவனத்தின் கொள்கைகள் மற்றும் கடந்தகால தீர்வுகளிலிருந்து பதில்களைப் பெற்று நிலையான மற்றும் துல்லியமான பதில்களை உறுதி செய்கிறது (அடிப்படையில் பாதுகாப்பான ஆவணங்களை உருவாக்குதல்) ( சைபர் பாதுகாப்பில் ஜெனரேட்டிவ் AI ஐ எவ்வாறு பயன்படுத்தலாம்? 10 நிஜ உலக எடுத்துக்காட்டுகள் ). இந்தக் கருத்து குறியீட்டு முறைக்கு மொழிபெயர்க்கப்பட்டுள்ளது: நீங்கள் முன்பு எதையாவது எவ்வாறு பாதுகாப்பாக செயல்படுத்தினீர்கள் என்பதை "நினைவில் வைத்திருக்கும்" மற்றும் அதை மீண்டும் அந்த வழியில் செய்ய உங்களை வழிநடத்தும் ஒரு AI.
சுருக்கமாக, பாதுகாப்பான குறியீட்டு உதவியை மேலும் அணுகக்கூடியதாக மாற்றுவதன் . தொழில்நுட்பம், நிதி, பாதுகாப்பு போன்ற பல தனிப்பயன் மென்பொருட்களை உருவாக்கும் தொழில்கள் - குறியீட்டை விரைவுபடுத்துவது மட்டுமல்லாமல், எப்போதும் விழிப்புடன் இருக்கும் பாதுகாப்பு மதிப்பாய்வாளராகவும் செயல்படும் AI கோபைலட்டுகளைக் கொண்டிருப்பதன் மூலம் பயனடைகின்றன. முறையாக நிர்வகிக்கப்படும் போது, இந்த AI கருவிகள் புதிய பாதிப்புகளின் அறிமுகத்தைக் குறைக்கலாம் மற்றும் மேம்பாட்டுக் குழுக்கள் சிறந்த நடைமுறைகளைப் பின்பற்ற உதவும், குழுவில் ஒவ்வொரு படியிலும் ஒரு பாதுகாப்பு நிபுணர் இல்லாவிட்டாலும் கூட. இதன் விளைவாக, முதல் நாளிலிருந்தே தாக்குதல்களுக்கு எதிராக மிகவும் வலுவான மென்பொருள் கிடைக்கிறது.
சம்பவ மறுமொழி ஆதரவு
ஒரு சைபர் பாதுகாப்பு சம்பவம் நிகழும்போது - அது தீம்பொருள் வெடிப்பு, தரவு மீறல் அல்லது தாக்குதலால் ஏற்படும் கணினி செயலிழப்பு என எதுவாக இருந்தாலும் - நேரம் மிக முக்கியமானது. சம்பவ மறுமொழி (IR) குழுக்களை ஆதரிக்க , மேலும் கையில் கூடுதல் தகவல்களுடன். ஒரு சம்பவத்தின் போது AI சில புலனாய்வு மற்றும் ஆவணச் சுமையைத் தாங்க முடியும், மேலும் சில பதில் நடவடிக்கைகளை பரிந்துரைக்கவோ அல்லது தானியங்குபடுத்தவோ முடியும் என்பதே இதன் கருத்து.
IR இல் AI இன் ஒரு முக்கிய பங்கு நிகழ்நேர சம்பவ பகுப்பாய்வு மற்றும் சுருக்கமாகும் . ஒரு சம்பவத்தின் நடுவில், பதிலளிப்பவர்களுக்கு "தாக்குதல் நடத்தியவர் எப்படி உள்ளே நுழைந்தார்?" , "எந்த அமைப்புகள் பாதிக்கப்பட்டுள்ளன?" , மற்றும் "எந்த தரவு சமரசம் செய்யப்படலாம்?" . ஜெனரேட்டிவ் AI பாதிக்கப்பட்ட அமைப்புகளிலிருந்து பதிவுகள், எச்சரிக்கைகள் மற்றும் தடயவியல் தரவை பகுப்பாய்வு செய்து விரைவாக நுண்ணறிவுகளை வழங்க முடியும். எடுத்துக்காட்டாக, மைக்ரோசாஃப்ட் செக்யூரிட்டி கோபிலட் ஒரு சம்பவ பதிலளிப்பவரை பல்வேறு ஆதாரங்களை (கோப்புகள், URLகள், நிகழ்வு பதிவுகள்) வழங்கவும், காலவரிசை அல்லது சுருக்கத்தைக் கேட்கவும் அனுமதிக்கிறது ( மைக்ரோசாஃப்ட் செக்யூரிட்டி கோபிலட் என்பது சைபர் பாதுகாப்பிற்கான ஒரு புதிய GPT-4 AI உதவியாளர் | தி வெர்ஜ் ). AI இவ்வாறு பதிலளிக்கலாம்: "மீறல் பயனர் ஜான்டோவுக்கு 10:53 GMT மணிக்கு மால்வேர் X கொண்ட ஃபிஷிங் மின்னஞ்சலுடன் தொடங்கியிருக்கலாம். செயல்படுத்தப்பட்டதும், மால்வேர் ஒரு பின்கதவை உருவாக்கியது, இது இரண்டு நாட்களுக்குப் பிறகு நிதி சேவையகத்திற்கு பக்கவாட்டில் நகர்த்தப் பயன்படுத்தப்பட்டது, அங்கு அது தரவைச் சேகரித்தது." மணிநேரங்களுக்குப் பதிலாக நிமிடங்களில் இந்த ஒத்திசைவான படத்தை வைத்திருப்பது குழுவிற்கு தகவலறிந்த முடிவுகளை (எந்த அமைப்புகளை தனிமைப்படுத்த வேண்டும் போன்றவை) மிக வேகமாக எடுக்க உதவுகிறது.
ஜெனரேட்டிவ் AI கட்டுப்படுத்துதல் மற்றும் சரிசெய்தல் நடவடிக்கைகளையும் பரிந்துரைக்கலாம் . உதாரணமாக, ஒரு எண்ட்பாயிண்ட் ransomware ஆல் பாதிக்கப்பட்டால், ஒரு AI கருவி அந்த இயந்திரத்தை தனிமைப்படுத்தவும், சில கணக்குகளை முடக்கவும், ஃபயர்வாலில் அறியப்பட்ட தீங்கிழைக்கும் IP-களைத் தடுக்கவும் ஒரு ஸ்கிரிப்ட் அல்லது வழிமுறைகளின் தொகுப்பை உருவாக்கலாம் - அடிப்படையில் ஒரு பிளேபுக் செயல்படுத்தல். ஜெனரேட்டிவ் AI "சம்பவத்தின் தன்மையை அடிப்படையாகக் கொண்டு பொருத்தமான செயல்கள் அல்லது ஸ்கிரிப்ட்களை உருவாக்கும்" , பதிலின் ஆரம்ப படிகளை தானியக்கமாக்குகிறது ( சைபர் செக்யூரிட்டியில் ஜெனரேட்டிவ் AI என்றால் என்ன? - பாலோ ஆல்டோ நெட்வொர்க்ஸ் ). பாதுகாப்பு குழு அதிகமாக இருக்கும் சூழ்நிலையில் (நூற்றுக்கணக்கான சாதனங்களில் பரவலான தாக்குதல் என்று சொல்லலாம்), AI இந்த செயல்களில் சிலவற்றை முன் அங்கீகரிக்கப்பட்ட நிலைமைகளின் கீழ் நேரடியாக செயல்படுத்தலாம், அயராது உழைக்கும் ஒரு இளைய பதிலளிப்பவரைப் போல செயல்படும். எடுத்துக்காட்டாக, ஒரு AI முகவர் தானாக சமரசம் செய்யப்பட்டதாகக் கருதும் சான்றுகளை மீட்டமைக்கலாம் அல்லது சம்பவத்தின் சுயவிவரத்துடன் பொருந்தக்கூடிய தீங்கிழைக்கும் செயல்பாட்டை வெளிப்படுத்தும் ஹோஸ்ட்களை தனிமைப்படுத்தலாம்.
சம்பவ பதிலின் போது, குழுவிற்குள்ளும் பங்குதாரர்களிடமும் தொடர்பு மிக முக்கியமானது. நிகழ்வு புதுப்பிப்பு அறிக்கைகள் அல்லது சுருக்கங்களை உடனடியாக வரைவதன் . ஒரு பொறியாளர் தங்கள் சரிசெய்தலை நிறுத்திவிட்டு மின்னஞ்சல் புதுப்பிப்பை எழுதுவதற்குப் பதிலாக, அவர்கள் AI-யிடம், "இந்த சம்பவத்தில் இதுவரை என்ன நடந்தது என்பதைச் சுருக்கமாகக் கூறி நிர்வாகிகளுக்குத் தெரிவிக்கவும்" என்று கேட்கலாம். சம்பவத் தரவை உள்வாங்கிய AI, ஒரு சுருக்கமான சுருக்கத்தை உருவாக்க முடியும்: "பிற்பகல் 3 மணி நிலவரப்படி, தாக்குதல் நடத்தியவர்கள் 2 பயனர் கணக்குகள் மற்றும் 5 சேவையகங்களை அணுகியுள்ளனர். பாதிக்கப்பட்ட தரவுகளில் தரவுத்தள X இல் உள்ள கிளையன்ட் பதிவுகள் அடங்கும். கட்டுப்பாட்டு நடவடிக்கைகள்: சமரசம் செய்யப்பட்ட கணக்குகளுக்கான VPN அணுகல் ரத்து செய்யப்பட்டுள்ளது மற்றும் சேவையகங்கள் தனிமைப்படுத்தப்பட்டுள்ளன. அடுத்த படிகள்: ஏதேனும் நிலைத்தன்மை வழிமுறைகளுக்கு ஸ்கேன் செய்தல்." பின்னர் பதிலளிப்பவர் இதை விரைவாகச் சரிபார்த்து அல்லது மாற்றி, பங்குதாரர்கள் துல்லியமான, உடனடித் தகவலுடன் வளையத்தில் வைக்கப்படுவதை உறுதிசெய்யலாம்.
தூசி படிந்த பிறகு, பொதுவாக ஒரு விரிவான சம்பவ அறிக்கையைத் தயாரிக்கவும், கற்றுக்கொண்ட பாடங்களைத் தொகுக்கவும் வேண்டும். இது AI ஆதரவு பிரகாசிக்கும் மற்றொரு பகுதி. இது அனைத்து சம்பவத் தரவையும் மதிப்பாய்வு செய்து, மூல காரணம், காலவரிசை, தாக்கம் மற்றும் பரிந்துரைகளை உள்ளடக்கிய ஒரு சம்பவத்திற்குப் பிந்தைய அறிக்கையை உருவாக்க ஒரு பொத்தானை அழுத்துவதன் மூலம் "பங்குதாரர்களுடன் பகிர்ந்து கொள்ளக்கூடிய பாதுகாப்பு வழக்குகள் மற்றும் சம்பவங்களின் எளிய சுருக்கங்களை" சைபர் பாதுகாப்பில் ஜெனரேட்டிவ் AI ஐ எவ்வாறு பயன்படுத்தலாம்? 10 நிஜ உலக எடுத்துக்காட்டுகள் ). செயல்-பின் அறிக்கையிடலை ஒழுங்குபடுத்துவதன் மூலம், நிறுவனங்கள் மேம்பாடுகளை விரைவாக செயல்படுத்த முடியும் மற்றும் இணக்க நோக்கங்களுக்காக சிறந்த ஆவணங்களையும் வைத்திருக்க முடியும்.
ஒரு புதுமையான எதிர்கால நோக்குடைய பயன்பாடு AI-இயக்கப்படும் சம்பவ உருவகப்படுத்துதல்கள் . ஒருவர் ஒரு தீயணைப்பு பயிற்சியை எவ்வாறு இயக்கலாம் என்பது போலவே, சில நிறுவனங்கள் "என்ன-இருந்தால்" சம்பவ சூழ்நிலைகளை இயக்க ஜெனரேட்டிவ் AI ஐப் பயன்படுத்துகின்றன. நெட்வொர்க் அமைப்பைக் கொண்டு ஒரு ransomware எவ்வாறு பரவக்கூடும் என்பதை AI உருவகப்படுத்தலாம், அல்லது ஒரு உள் நபர் தரவை எவ்வாறு வெளியேற்ற முடியும், பின்னர் தற்போதைய மறுமொழித் திட்டங்களின் செயல்திறனை மதிப்பிடலாம். இது ஒரு உண்மையான சம்பவம் நிகழும் முன் அணிகள் பிளேபுக்குகளைத் தயாரிக்கவும் செம்மைப்படுத்தவும் உதவுகிறது. இது உங்கள் தயார்நிலையை தொடர்ந்து சோதிக்கும் ஒரு எப்போதும் மேம்படும் சம்பவ மறுமொழி ஆலோசகரைப் போன்றது.
நிதி அல்லது சுகாதாரப் பராமரிப்பு போன்ற அதிக பங்குகளைக் கொண்ட தொழில்களில், விபத்துக்களால் ஏற்படும் செயலிழப்பு அல்லது தரவு இழப்பு மிகவும் விலை உயர்ந்ததாக இருக்கும் இடங்களில், இந்த AI-இயக்கப்படும் IR திறன்கள் மிகவும் கவர்ச்சிகரமானவை. சைபர் சம்பவத்தை அனுபவிக்கும் ஒரு மருத்துவமனை நீண்டகால கணினி செயலிழப்புகளை தாங்க முடியாது - விரைவாக கட்டுப்படுத்த உதவும் ஒரு AI உண்மையில் உயிர் காக்கும். இதேபோல், ஒரு நிதி நிறுவனம் அதிகாலை 3 மணிக்கு சந்தேகிக்கப்படும் மோசடி ஊடுருவலின் ஆரம்ப சோதனையை கையாள AI ஐப் பயன்படுத்தலாம், இதனால் அழைப்பு விடுக்கும் நபர்கள் ஆன்லைனில் இருக்கும் நேரத்தில், நிறைய அடிப்படை வேலைகள் (பாதிக்கப்பட்ட கணக்குகளை முடக்குதல், பரிவர்த்தனைகளைத் தடுப்பது போன்றவை) ஏற்கனவே முடிக்கப்பட்டுள்ளன. ஜெனரேட்டிவ் AI உடன் சம்பவ மறுமொழி குழுக்களை அதிகரிப்பதன் , நிறுவனங்கள் மறுமொழி நேரங்களை கணிசமாகக் குறைத்து, அவற்றின் கையாளுதலின் முழுமையை மேம்படுத்தலாம், இறுதியில் சைபர் சம்பவங்களிலிருந்து ஏற்படும் சேதத்தைத் தணிக்கலாம்.
நடத்தை பகுப்பாய்வு மற்றும் ஒழுங்கின்மை கண்டறிதல்
"சாதாரண" நடத்தையிலிருந்து ஏதாவது விலகும்போது அதைக் கவனிப்பதன் மூலம் பல சைபர் தாக்குதல்களை அடையாளம் காண முடியும் - அது ஒரு பயனர் கணக்கு அசாதாரண அளவு தரவைப் பதிவிறக்குவது அல்லது ஒரு நெட்வொர்க் சாதனம் திடீரென அறிமுகமில்லாத ஹோஸ்டுடன் தொடர்புகொள்வது போன்றவையாக இருக்கலாம். ஜெனரேட்டிவ் AI நடத்தை பகுப்பாய்வு மற்றும் ஒழுங்கின்மை கண்டறிதலுக்கான , பயனர்கள் மற்றும் அமைப்புகளின் இயல்பான வடிவங்களைக் கற்றுக்கொள்கிறது, பின்னர் ஏதாவது தவறாகத் தெரிந்தால் அதைக் கொடியிடுகிறது.
பாரம்பரிய ஒழுங்கின்மை கண்டறிதல் பெரும்பாலும் குறிப்பிட்ட அளவீடுகளில் புள்ளிவிவர வரம்புகள் அல்லது எளிய இயந்திர கற்றலைப் பயன்படுத்துகிறது (CPU பயன்பாட்டு அதிகரிப்புகள், ஒற்றைப்படை நேரங்களில் உள்நுழைவு, முதலியன). ஜெனரேட்டிவ் AI, நடத்தையின் நுணுக்கமான சுயவிவரங்களை உருவாக்குவதன் மூலம் இதை மேலும் கொண்டு செல்ல முடியும். எடுத்துக்காட்டாக, ஒரு AI மாதிரியானது காலப்போக்கில் ஒரு பணியாளரின் உள்நுழைவுகள், கோப்பு அணுகல் முறைகள் மற்றும் மின்னஞ்சல் பழக்கவழக்கங்களை உள்வாங்கி, அந்த பயனரின் "இயல்பு" பற்றிய பல பரிமாண புரிதலை உருவாக்க முடியும். அந்தக் கணக்கு பின்னர் அதன் விதிமுறைக்கு வெளியே கடுமையாக ஏதாவது செய்தால் (ஒரு புதிய நாட்டிலிருந்து உள்நுழைவது மற்றும் நள்ளிரவில் HR கோப்புகளின் தொகுப்பை அணுகுவது போன்றவை), AI ஒரு மெட்ரிக்கில் மட்டுமல்ல, பயனரின் சுயவிவரத்திற்கு பொருந்தாத முழு நடத்தை வடிவமாகவும் ஒரு விலகலைக் கண்டறியும். தொழில்நுட்ப அடிப்படையில், ஜெனரேட்டிவ் மாதிரிகள் (தானியங்கி குறியாக்கிகள் அல்லது வரிசை மாதிரிகள் போன்றவை) "இயல்பு" எப்படி இருக்கும் என்பதை மாதிரியாகக் கொண்டு, பின்னர் எதிர்பார்க்கப்படும் நடத்தை வரம்பை உருவாக்க முடியும். யதார்த்தம் அந்த வரம்பிற்கு வெளியே விழும்போது, அது ஒரு ஒழுங்கின்மையாகக் கொடியிடப்படுகிறது (சைபர் பாதுகாப்பில் ஜெனரேட்டிவ் AI என்றால் என்ன? - பாலோ ஆல்டோ நெட்வொர்க்குகள் ).
ஒரு நடைமுறை செயல்படுத்தல் நெட்வொர்க் போக்குவரத்து கண்காணிப்பில் . 2024 கணக்கெடுப்பின்படி, 54% அமெரிக்க நிறுவனங்கள் நெட்வொர்க் போக்குவரத்தை கண்காணிப்பதை சைபர் பாதுகாப்பில் AIக்கான சிறந்த பயன்பாட்டு நிகழ்வாகக் குறிப்பிட்டுள்ளன ( வட அமெரிக்கா: உலகளவில் சைபர் பாதுகாப்பில் 2024 இல் சிறந்த AI பயன்பாட்டு வழக்குகள் ). ஜெனரேட்டிவ் AI ஒரு நிறுவனத்தின் நெட்வொர்க்கின் இயல்பான தொடர்பு முறைகளைக் கற்றுக்கொள்ள முடியும் - எந்த சேவையகங்கள் பொதுவாக ஒருவருக்கொருவர் பேசுகின்றன, வணிக நேரங்களில் எந்த அளவு தரவு நகர்கிறது மற்றும் இரவு முழுவதும் நகர்கிறது, முதலியன. ஒரு தாக்குபவர் ஒரு சேவையகத்திலிருந்து தரவை வெளியேற்றத் தொடங்கினால், கண்டறிதலைத் தவிர்க்க மெதுவாக கூட, AI-அடிப்படையிலான அமைப்பு "சர்வர் A ஒருபோதும் அதிகாலை 2 மணிக்கு வெளிப்புற IPக்கு 500MB தரவை அனுப்பாது" எச்சரிக்கையை எழுப்பக்கூடும். AI நிலையான விதிகளை மட்டும் பயன்படுத்துவதில்லை, ஆனால் நெட்வொர்க் நடத்தையின் வளர்ந்து வரும் மாதிரியைப் பயன்படுத்துவதால், நிலையான விதிகள் ("தரவு > X MB என எச்சரிக்கை" போன்றவை) தவறவிடக்கூடிய அல்லது தவறாகக் கொடியிடக்கூடிய நுட்பமான முரண்பாடுகளைப் பிடிக்க முடியும். இந்த தகவமைப்பு இயல்புதான் வங்கி பரிவர்த்தனை நெட்வொர்க்குகள், கிளவுட் உள்கட்டமைப்பு அல்லது IoT சாதனக் குழுக்கள் போன்ற சூழல்களில் AI-இயக்கப்படும் ஒழுங்கின்மை கண்டறிதலை சக்திவாய்ந்ததாக ஆக்குகிறது, அங்கு இயல்பான vs அசாதாரணத்திற்கான நிலையான விதிகளை வரையறுப்பது மிகவும் சிக்கலானது.
பயனர் நடத்தை பகுப்பாய்வு (UBA) உடன் ஜெனரேட்டிவ் AI உதவுகிறது . ஒவ்வொரு பயனர் அல்லது நிறுவனத்தின் அடிப்படையை உருவாக்குவதன் மூலம், AI நற்சான்றிதழ் தவறாகப் பயன்படுத்துதல் போன்றவற்றைக் கண்டறிய முடியும். உதாரணமாக, கணக்கியலில் இருந்து பாப் திடீரென்று வாடிக்கையாளர் தரவுத்தளத்தை வினவத் தொடங்கினால் (அவர் இதற்கு முன்பு செய்யாத ஒன்று), பாப்பின் நடத்தைக்கான AI மாதிரி இதை அசாதாரணமாகக் குறிக்கும். இது தீம்பொருளாக இல்லாமல் இருக்கலாம் - இது பாபின் நற்சான்றிதழ்கள் ஒரு தாக்குபவர் திருடப்பட்டுப் பயன்படுத்தப்பட்டதாகவோ அல்லது அவர் செய்யக்கூடாத இடத்தில் பாப் ஆய்வு செய்ததாகவோ இருக்கலாம். எப்படியிருந்தாலும், பாதுகாப்பு குழு விசாரணை செய்ய ஒரு எச்சரிக்கையைப் பெறுகிறது. இத்தகைய AI-இயக்கப்படும் UBA அமைப்புகள் பல்வேறு பாதுகாப்பு தயாரிப்புகளில் உள்ளன, மேலும் ஜெனரேட்டிவ் மாடலிங் நுட்பங்கள் அவற்றின் துல்லியத்தை அதிகப்படுத்துகின்றன மற்றும் சூழலைக் கருத்தில் கொண்டு தவறான அலாரங்களைக் குறைக்கின்றன (ஒருவேளை பாப் ஒரு சிறப்பு திட்டத்தில் இருக்கலாம், AI சில நேரங்களில் பிற தரவுகளிலிருந்து ஊகிக்க முடியும்).
அடையாளம் மற்றும் அணுகல் மேலாண்மைத் துறையில், டீப்ஃபேக் கண்டறிதல் வளர்ந்து வரும் தேவையாகும் - ஜெனரேட்டிவ் AI பயோமெட்ரிக் பாதுகாப்பை முட்டாளாக்கும் செயற்கை குரல்கள் மற்றும் வீடியோக்களை உருவாக்க முடியும். சுவாரஸ்யமாக, மனிதர்கள் கவனிக்க கடினமாக இருக்கும் ஆடியோ அல்லது வீடியோவில் உள்ள நுட்பமான கலைப்பொருட்களை பகுப்பாய்வு செய்வதன் மூலம் ஜெனரேட்டிவ் AI இந்த டீப்ஃபேக்குகளைக் கண்டறிய உதவும். ஆக்சென்ச்சரில் ஒரு உதாரணத்தைக் கண்டோம், இது ஜெனரேட்டிவ் AI ஐப் பயன்படுத்தி எண்ணற்ற முகபாவனைகள் மற்றும் நிலைமைகளை உருவகப்படுத்தி, பயிற்றுவித்தது . ஐந்து ஆண்டுகளில், இந்த அணுகுமுறை ஆக்சென்ச்சர் அதன் 90% அமைப்புகளுக்கான கடவுச்சொற்களை அகற்ற உதவியது (பயோமெட்ரிக்ஸ் மற்றும் பிற காரணிகளுக்கு மாறுதல்) மற்றும் தாக்குதல்களை 60% குறைக்க உதவியது ( சைபர் செக்யூரிட்டியில் ஜெனரேட்டிவ் AIக்கான 6 பயன்பாட்டு வழக்குகள் [+ எடுத்துக்காட்டுகள்] ). அடிப்படையில், அவர்கள் ஜெனரேட்டிவ் AI ஐப் பயன்படுத்தி பயோமெட்ரிக் அங்கீகாரத்தை வலுப்படுத்தினர், இது ஜெனரேட்டிவ் தாக்குதல்களுக்கு எதிராக அதை மீள்தன்மையடையச் செய்தது (AI-ஐ எதிர்த்துப் போராடுவதற்கான ஒரு சிறந்த எடுத்துக்காட்டு). இந்த வகையான நடத்தை மாதிரியாக்கம் - இந்த விஷயத்தில் நேரடி மனித முகத்திற்கும் AI-ஒருங்கிணைந்த ஒன்றுக்கும் இடையிலான வேறுபாட்டை அங்கீகரிப்பது - மிக முக்கியமானது, ஏனெனில் அங்கீகாரத்தில் நாம் AI ஐ அதிகம் நம்பியுள்ளோம்.
ஜெனரேட்டிவ் AI ஆல் இயக்கப்படும் ஒழுங்கின்மை கண்டறிதல் அனைத்து தொழில்களிலும் பொருந்தும்: சுகாதாரப் பராமரிப்பில், ஹேக்கிங்கின் அறிகுறிகளுக்கான மருத்துவ சாதன நடத்தையை கண்காணித்தல்; நிதியத்தில், மோசடி அல்லது வழிமுறை கையாளுதலைக் குறிக்கக்கூடிய ஒழுங்கற்ற வடிவங்களுக்கான வர்த்தக அமைப்புகளைப் பார்த்தல்; ஆற்றல்/பயன்பாடுகளில், ஊடுருவல்களின் அறிகுறிகளுக்கான கட்டுப்பாட்டு அமைப்பு சமிக்ஞைகளைக் கவனித்தல். அகலம் (நடத்தையின் அனைத்து அம்சங்களையும் பார்ப்பது) மற்றும் ஆழம் (சிக்கலான வடிவங்களைப் புரிந்துகொள்வது) , ஒரு சைபர் சம்பவத்தின் ஊசியில்-இயல்பான குறிகாட்டிகளைக் கண்டறிவதற்கான ஒரு சக்திவாய்ந்த கருவியாக அமைகிறது. அச்சுறுத்தல்கள் திருட்டுத்தனமாக மாறும்போது, சாதாரண செயல்பாடுகளுக்கு இடையில் மறைந்து, "இயல்பானவை" துல்லியமாக வகைப்படுத்தவும், ஏதாவது விலகும்போது கத்தவும் இந்த திறன் இன்றியமையாததாகிறது. ஜெனரேட்டிவ் AI இவ்வாறு ஒரு சளைக்காத காவலாளியாக செயல்படுகிறது, சுற்றுச்சூழலில் ஏற்படும் மாற்றங்களுடன் வேகத்தைத் தக்கவைக்க, இயல்புநிலைக்கான அதன் வரையறையை எப்போதும் கற்றுக்கொண்டு புதுப்பித்து, நெருக்கமான ஆய்வுக்கு தகுதியான முரண்பாடுகளுக்கு பாதுகாப்பு குழுக்களை எச்சரிக்கிறது.
சைபர் பாதுகாப்பில் ஜெனரேட்டிவ் AI இன் வாய்ப்புகள் மற்றும் நன்மைகள்
, இந்த கருவிகளை ஏற்றுக்கொள்ள விரும்பும் நிறுவனங்களுக்கு ஏராளமான வாய்ப்புகளையும் நன்மைகளையும்
-
விரைவான அச்சுறுத்தல் கண்டறிதல் மற்றும் பதில்: ஜெனரேட்டிவ் AI அமைப்புகள் உண்மையான நேரத்தில் அதிக அளவிலான தரவை பகுப்பாய்வு செய்து, மனித பகுப்பாய்வை விட மிக வேகமாக அச்சுறுத்தல்களை அடையாளம் காண முடியும். இந்த வேக நன்மை என்பது தாக்குதல்களை முன்கூட்டியே கண்டறிதல் மற்றும் விரைவான சம்பவக் கட்டுப்பாட்டைக் குறிக்கிறது. நடைமுறையில், AI-இயக்கப்படும் பாதுகாப்பு கண்காணிப்பு, மனிதர்கள் தொடர்புபடுத்த அதிக நேரம் எடுக்கும் அச்சுறுத்தல்களைப் பிடிக்க முடியும். சம்பவங்களுக்கு உடனடியாக பதிலளிப்பதன் மூலம் (அல்லது ஆரம்ப பதில்களை தன்னாட்சி முறையில் செயல்படுத்துவதன் மூலம்), நிறுவனங்கள் தங்கள் நெட்வொர்க்குகளில் தாக்குபவர்கள் வசிக்கும் நேரத்தை வியத்தகு முறையில் குறைக்கலாம், சேதத்தைக் குறைக்கலாம்.
-
மேம்படுத்தப்பட்ட துல்லியம் மற்றும் அச்சுறுத்தல் பாதுகாப்பு: புதிய தரவுகளிலிருந்து அவை தொடர்ந்து கற்றுக்கொள்வதால், உருவாக்க மாதிரிகள் வளர்ந்து வரும் அச்சுறுத்தல்களுக்கு ஏற்ப மாற்றியமைக்க முடியும் மற்றும் தீங்கிழைக்கும் செயல்பாட்டின் நுட்பமான அறிகுறிகளைப் பிடிக்க முடியும். இது நிலையான விதிகளுடன் ஒப்பிடும்போது மேம்பட்ட கண்டறிதல் துல்லியத்திற்கு (குறைவான தவறான எதிர்மறைகள் மற்றும் தவறான நேர்மறைகள்) வழிவகுக்கிறது. எடுத்துக்காட்டாக, ஃபிஷிங் மின்னஞ்சல் அல்லது தீம்பொருள் நடத்தையின் அடையாளங்களைக் கற்றுக்கொண்ட ஒரு AI, இதற்கு முன்பு பார்த்திராத மாறுபாடுகளை அடையாளம் காண முடியும். இதன் விளைவாக, புதுமையான தாக்குதல்கள் உட்பட அச்சுறுத்தல் வகைகளின் பரந்த கவரேஜ் ஒட்டுமொத்த பாதுகாப்பு நிலையை வலுப்படுத்துகிறது. பாதுகாப்பு குழுக்கள் AI பகுப்பாய்விலிருந்து விரிவான நுண்ணறிவுகளைப் பெறுகின்றன (எ.கா. தீம்பொருள் நடத்தை பற்றிய விளக்கங்கள்), இது மிகவும் துல்லியமான மற்றும் இலக்கு வைக்கப்பட்ட பாதுகாப்புகளை செயல்படுத்துகிறது ( சைபர் பாதுகாப்பில் ஜெனரேட்டிவ் AI என்றால் என்ன? - பாலோ ஆல்டோ நெட்வொர்க்குகள் ).
-
மீண்டும் மீண்டும் செய்யும் பணிகளின் ஆட்டோமேஷன்: பதிவுகளை சரிபார்த்து அறிக்கைகளைத் தொகுப்பதில் இருந்து சம்பவ பதில் ஸ்கிரிப்ட்களை எழுதுவது வரை வழக்கமான, உழைப்பு மிகுந்த பாதுகாப்பு பணிகளை தானியக்கமாக்குவதில் ஜெனரேட்டிவ் AI சிறந்து விளங்குகிறது. இந்த ஆட்டோமேஷன் மனித ஆய்வாளர்கள் மீதான சுமையைக் குறைத்து , உயர் மட்ட உத்தி மற்றும் சிக்கலான முடிவெடுப்பதில் கவனம் செலுத்த அவர்களை விடுவிக்கிறது ( சைபர் செக்யூரிட்டியில் ஜெனரேட்டிவ் AI என்றால் என்ன? - பாலோ ஆல்டோ நெட்வொர்க்குகள் ). பாதிப்பு ஸ்கேனிங், உள்ளமைவு தணிக்கை, பயனர் செயல்பாட்டு பகுப்பாய்வு மற்றும் இணக்க அறிக்கையிடல் போன்ற சாதாரணமான ஆனால் முக்கியமான வேலைகளை AI கையாள முடியும் (அல்லது குறைந்தபட்சம் முதலில் வரைவு செய்ய முடியும்). இந்த பணிகளை இயந்திர வேகத்தில் கையாளுவதன் மூலம், AI செயல்திறனை மேம்படுத்துவது மட்டுமல்லாமல் மனித பிழையையும் குறைக்கிறது (மீறல்களில் ஒரு குறிப்பிடத்தக்க காரணி).
-
முன்னெச்சரிக்கை பாதுகாப்பு மற்றும் உருவகப்படுத்துதல்: ஜெனரேட்டிவ் AI, நிறுவனங்கள் எதிர்வினையிலிருந்து முன்னெச்சரிக்கை பாதுகாப்பிற்கு மாற அனுமதிக்கிறது. தாக்குதல் உருவகப்படுத்துதல், செயற்கை தரவு உருவாக்கம் மற்றும் சூழ்நிலை அடிப்படையிலான பயிற்சி போன்ற நுட்பங்கள் மூலம், பாதுகாவலர்கள் நிஜ உலகில் அச்சுறுத்தல்கள் முன்பே அவற்றை எதிர்பார்த்து தயார் செய்யலாம். பாதுகாப்பு குழுக்கள் பாதுகாப்பான சூழல்களில் சைபர் தாக்குதல்களை (ஃபிஷிங் பிரச்சாரங்கள், தீம்பொருள் வெடிப்புகள், DDoS போன்றவை) உருவகப்படுத்தலாம், அவற்றின் பதில்களைச் சோதிக்கவும், எந்தவொரு பலவீனங்களையும் நிவர்த்தி செய்யவும் முடியும். இந்தத் தொடர்ச்சியான பயிற்சி, பெரும்பாலும் மனித முயற்சியால் முழுமையாகச் செய்ய இயலாது, பாதுகாப்பை கூர்மையாகவும் புதுப்பித்ததாகவும் வைத்திருக்கிறது. இது ஒரு சைபர் "தீயணைப்பு பயிற்சி" போன்றது - AI உங்கள் பாதுகாப்புகளில் பல கற்பனையான அச்சுறுத்தல்களை வீச முடியும், இதன் மூலம் நீங்கள் பயிற்சி செய்து மேம்படுத்தலாம்.
-
மனித நிபுணத்துவத்தை அதிகரித்தல் (ஒரு சக்தி பெருக்கியாக AI): ஜெனரேட்டிவ் AI என்பது ஒரு சளைக்காத ஜூனியர் ஆய்வாளர், ஆலோசகர் மற்றும் உதவியாளராக ஒன்றாக இணைக்கப்பட்டுள்ளது. இது அனுபவம் குறைந்த குழு உறுப்பினர்களுக்கு பொதுவாக அனுபவம் வாய்ந்த நிபுணர்களிடமிருந்து எதிர்பார்க்கப்படும் வழிகாட்டுதல் மற்றும் பரிந்துரைகளை வழங்க முடியும், குழு முழுவதும் நிபுணத்துவத்தை திறம்பட ஜனநாயகப்படுத்துகிறது சைபர் பாதுகாப்பில் ஜெனரேட்டிவ் AIக்கான 6 பயன்பாட்டு வழக்குகள் [+ எடுத்துக்காட்டுகள்] ). சைபர் பாதுகாப்பில் திறமை பற்றாக்குறையைக் கருத்தில் கொண்டு இது மிகவும் மதிப்புமிக்கது - சிறிய அணிகள் குறைவாகவே அதிகமாகச் செய்ய AI உதவுகிறது. மறுபுறம், அனுபவம் வாய்ந்த ஆய்வாளர்கள், AI முணுமுணுப்பு வேலைகளைக் கையாளுவதிலிருந்தும், வெளிப்படையான நுண்ணறிவுகளை வெளிக்கொணர்வதிலிருந்தும் பயனடைகிறார்கள், அதை அவர்கள் சரிபார்த்து செயல்பட முடியும். ஒட்டுமொத்த முடிவு என்னவென்றால், AI ஒவ்வொரு மனித உறுப்பினரின் தாக்கத்தையும் பெருக்கும் வகையில் மிகவும் உற்பத்தி மற்றும் திறன் கொண்ட ஒரு பாதுகாப்பு குழுவாகும் ( சைபர் பாதுகாப்பில் ஜெனரேட்டிவ் AI ஐ எவ்வாறு பயன்படுத்தலாம் ).
-
மேம்படுத்தப்பட்ட முடிவெடுக்கும் ஆதரவு மற்றும் அறிக்கையிடல்: தொழில்நுட்பத் தரவை இயற்கையான மொழி நுண்ணறிவுகளாக மொழிபெயர்ப்பதன் மூலம், உருவாக்க AI தகவல் தொடர்பு மற்றும் முடிவெடுப்பதை மேம்படுத்துகிறது. பாதுகாப்புத் தலைவர்கள் AI-உருவாக்கிய சுருக்கங்கள் மூலம் சிக்கல்களில் தெளிவான பார்வையைப் பெறுகிறார்கள் மற்றும் மூலத் தரவை அலச வேண்டிய அவசியமின்றி தகவலறிந்த மூலோபாய முடிவுகளை எடுக்க முடியும். அதேபோல், பாதுகாப்பு நிலை மற்றும் சம்பவங்கள் பற்றிய எளிதில் புரிந்துகொள்ளக்கூடிய அறிக்கைகளை AI தயாரிக்கும்போது குறுக்கு-செயல்பாட்டு தொடர்பு (நிர்வாகிகள், இணக்க அதிகாரிகள் போன்றவர்களுக்கு) மேம்படுத்தப்படுகிறது ( சைபர் பாதுகாப்பில் உருவாக்க AI எவ்வாறு பயன்படுத்தப்படலாம்? 10 நிஜ உலக எடுத்துக்காட்டுகள் ). இது தலைமை மட்டத்தில் பாதுகாப்பு விஷயங்களில் நம்பிக்கையையும் சீரமைப்பையும் உருவாக்குவது மட்டுமல்லாமல், அபாயங்கள் மற்றும் AI-கண்டுபிடிக்கப்பட்ட இடைவெளிகளை தெளிவாக வெளிப்படுத்துவதன் மூலம் முதலீடுகள் மற்றும் மாற்றங்களை நியாயப்படுத்தவும் உதவுகிறது.
இந்த நன்மைகள் இணைந்து, சைபர் பாதுகாப்பில் ஜெனரேட்டிவ் AI-ஐப் பயன்படுத்தும் நிறுவனங்கள், குறைந்த இயக்கச் செலவுகளுடன் வலுவான பாதுகாப்பு நிலையை அடைய முடியும் என்பதைக் குறிக்கிறது. முன்னர் அதிகமாக இருந்த அச்சுறுத்தல்களுக்கு அவர்கள் பதிலளிக்க முடியும், கண்காணிக்கப்படாத இடைவெளிகளை மறைக்க முடியும் மற்றும் AI-இயக்கப்படும் பின்னூட்ட சுழல்கள் மூலம் தொடர்ந்து மேம்படுத்த முடியும். இறுதியில், ஜெனரேட்டிவ் AI வேகம், அளவு மற்றும் நுட்பத்தை சமமான அதிநவீன பாதுகாப்புகளுடன் பொருத்துவதன் மூலம் எதிரிகளை விட முன்னேற ஒரு வாய்ப்பை வழங்குகிறது. ஒரு கணக்கெடுப்பு கண்டறிந்தபடி, வணிக மற்றும் சைபர் தலைவர்களில் பாதிக்கும் மேற்பட்டவர்கள் ஜெனரேட்டிவ் AI ( [PDF] உலகளாவிய சைபர் பாதுகாப்பு அவுட்லுக் 2025 | உலக பொருளாதார மன்றம் ) ( ஜெனரேட்டிவ் AI இன் சைபர் பாதுகாப்பு: LLM இன் விரிவான மதிப்பாய்வு ... ) - இந்த தொழில்நுட்பங்களின் நன்மைகளைச் சுற்றியுள்ள நம்பிக்கைக்கு ஒரு சான்று.
சைபர் பாதுகாப்பில் ஜெனரேட்டிவ் AI ஐப் பயன்படுத்துவதால் ஏற்படும் அபாயங்கள் மற்றும் சவால்கள்
ஆபத்துகள் மற்றும் சவால்களை கண்மூடித்தனமாகப் பார்ப்பது . AI-ஐ குருட்டுத்தனமாக நம்புவது அல்லது தவறாகப் பயன்படுத்துவது புதிய பாதிப்புகளை ஏற்படுத்தும். கீழே, ஒவ்வொன்றிற்கான சூழலுடன் முக்கிய கவலைகள் மற்றும் ஆபத்துகளை நாங்கள் கோடிட்டுக் காட்டுகிறோம்:
-
சைபர் குற்றவாளிகளின் எதிரி பயன்பாடு: பாதுகாவலர்களுக்கு உதவும் அதே உருவாக்கத் திறன்கள் தாக்குபவர்களுக்கு அதிகாரம் அளிக்க முடியும். அச்சுறுத்தல் நடிகர்கள் ஏற்கனவே அதிக உறுதியான ஃபிஷிங் மின்னஞ்சல்களை உருவாக்க, போலி ஆளுமைகளை உருவாக்க மற்றும் சமூக பொறியியலுக்கான ஆழமான போலி வீடியோக்களை உருவாக்க, கண்டறிதலைத் தவிர்க்க தொடர்ந்து மாறும் பாலிமார்பிக் தீம்பொருளை உருவாக்க மற்றும் ஹேக்கிங்கின் அம்சங்களை தானியக்கமாக்க ஜெனரேட்டிவ் AI ஐப் பயன்படுத்துகின்றனர் ( சைபர் பாதுகாப்பில் ஜெனரேட்டிவ் AI என்றால் என்ன? - பாலோ ஆல்டோ நெட்வொர்க்குகள் ). சைபர் பாதுகாப்புத் தலைவர்களில் கிட்டத்தட்ட பாதி (46%) பேர் ஜெனரேட்டிவ் AI மிகவும் மேம்பட்ட எதிரி தாக்குதல்களுக்கு வழிவகுக்கும் என்று கவலைப்படுகிறார்கள் ( ஜெனரேட்டிவ் AI பாதுகாப்பு: போக்குகள், அச்சுறுத்தல்கள் மற்றும் தணிப்பு உத்திகள் ). இந்த "AI ஆயுதப் போட்டி" என்பது பாதுகாவலர்கள் AI ஐ ஏற்றுக்கொள்வதால், தாக்குபவர்கள் மிகவும் பின்தங்கியிருக்க மாட்டார்கள் (உண்மையில், அவர்கள் சில பகுதிகளில், ஒழுங்குபடுத்தப்படாத AI கருவிகளைப் பயன்படுத்தி முன்னணியில் இருக்கலாம்). நிறுவனங்கள் அடிக்கடி, அதிநவீன மற்றும் கண்டுபிடிக்க கடினமாக இருக்கும் AI-மேம்படுத்தப்பட்ட அச்சுறுத்தல்களுக்கு தயாராக இருக்க வேண்டும்.
-
AI மாயத்தோற்றங்கள் மற்றும் துல்லியமின்மை: நம்பத்தகுந்த ஆனால் தவறான அல்லது தவறாக வழிநடத்தும் வெளியீடுகளை உருவாக்கலாம் - இது மாயத்தோற்றம் எனப்படும் ஒரு நிகழ்வு. பாதுகாப்பு சூழலில், ஒரு AI ஒரு சம்பவத்தை பகுப்பாய்வு செய்து ஒரு குறிப்பிட்ட பாதிப்புதான் காரணம் என்று தவறாக முடிவு செய்யலாம் அல்லது தாக்குதலைக் கட்டுப்படுத்தத் தவறும் ஒரு குறைபாடுள்ள சரிசெய்தல் ஸ்கிரிப்டை உருவாக்கலாம். இந்த தவறுகளை முக மதிப்பில் எடுத்துக் கொண்டால் ஆபத்தானதாக இருக்கலாம். NTT தரவு எச்சரிப்பது போல, “ஜெனரேட்டிவ் AI உண்மையற்ற உள்ளடக்கத்தை வெளியிடக்கூடும், மேலும் இந்த நிகழ்வு மாயத்தோற்றங்கள் என்று அழைக்கப்படுகிறது... தற்போது அவற்றை முற்றிலுமாக அகற்றுவது கடினம்” ( ஜெனரேட்டிவ் AI மற்றும் எதிர் நடவடிக்கைகளின் பாதுகாப்பு அபாயங்கள், மற்றும் சைபர் பாதுகாப்பில் அதன் தாக்கம் | NTT தரவு குழு ). சரிபார்ப்பு இல்லாமல் AI ஐ அதிகமாக நம்பியிருப்பது தவறான முயற்சிகள் அல்லது தவறான பாதுகாப்பு உணர்வுக்கு வழிவகுக்கும். எடுத்துக்காட்டாக, ஒரு AI ஒரு முக்கியமான அமைப்பை அது இல்லாதபோது பாதுகாப்பானது என்று தவறாகக் கொடியிடலாம் அல்லது அதற்கு நேர்மாறாக, ஒருபோதும் நடக்காத மீறலை "கண்டறிவதன்" மூலம் பீதியைத் தூண்டலாம். AI வெளியீடுகளின் கடுமையான சரிபார்ப்பு மற்றும் முக்கியமான முடிவுகளுக்கு மனிதர்களை வளையத்தில் வைத்திருப்பது இந்த ஆபத்தைத் தணிக்க அவசியம்.
-
தவறான நேர்மறைகள் மற்றும் எதிர்மறைகள்: மாயத்தோற்றங்களுடன் தொடர்புடையது, ஒரு AI மாதிரி மோசமாகப் பயிற்சி பெற்றிருந்தால் அல்லது உள்ளமைக்கப்பட்டிருந்தால், அது தீங்கற்ற செயல்பாட்டை தீங்கிழைக்கும் (தவறான நேர்மறைகள்) அல்லது, மோசமாக, உண்மையான அச்சுறுத்தல்களைத் தவறவிடலாம் (தவறான எதிர்மறைகள்) ( சைபர் பாதுகாப்பில் ஜெனரேட்டிவ் AI ஐ எவ்வாறு பயன்படுத்தலாம் ). அதிகப்படியான தவறான எச்சரிக்கைகள் பாதுகாப்பு குழுக்களை மூழ்கடித்து எச்சரிக்கை சோர்வை ஏற்படுத்தும் (AI வாக்குறுதியளித்த செயல்திறன் ஆதாயங்களைச் செயல்தவிர்க்கும்), அதே நேரத்தில் தவறவிட்ட கண்டறிதல்கள் நிறுவனத்தை அம்பலப்படுத்திவிடும். சரியான சமநிலைக்கு ஜெனரேட்டிவ் மாதிரிகளை சரிசெய்வது சவாலானது. ஒவ்வொரு சூழலும் தனித்துவமானது, மேலும் ஒரு AI உடனடியாக உகந்த முறையில் செயல்படாமல் போகலாம். தொடர்ச்சியான கற்றலும் இரட்டை முனைகள் கொண்ட வாள் - AI சாய்ந்த பின்னூட்டங்களிலிருந்து அல்லது மாறும் சூழலில் இருந்து கற்றுக்கொண்டால், அதன் துல்லியம் ஏற்ற இறக்கமாக இருக்கலாம். பாதுகாப்பு குழுக்கள் AI செயல்திறனைக் கண்காணித்து வரம்புகளை சரிசெய்ய வேண்டும் அல்லது மாதிரிகளுக்கு சரியான கருத்துக்களை வழங்க வேண்டும். அதிக பங்கு சூழல்களில் (முக்கியமான உள்கட்டமைப்பிற்கான ஊடுருவல் கண்டறிதல் போன்றவை), மோதலுக்குப் பதிலாக சீரமைத்து பூர்த்தி செய்வதை உறுதிசெய்ய, ஒரு காலத்திற்கு AI பரிந்துரைகளை ஏற்கனவே உள்ள அமைப்புகளுடன் இணையாக இயக்குவது புத்திசாலித்தனமாக இருக்கலாம்.
-
தரவு தனியுரிமை மற்றும் கசிவு: பயிற்சி மற்றும் செயல்பாட்டிற்கு ஜெனரேட்டிவ் AI அமைப்புகளுக்கு பெரும்பாலும் அதிக அளவு தரவு தேவைப்படுகிறது. இந்த மாதிரிகள் கிளவுட் அடிப்படையிலானவை அல்லது சரியாக மறைக்கப்படாவிட்டால், முக்கியமான தகவல்கள் கசிந்துவிடும் அபாயம் உள்ளது. பயனர்கள் கவனக்குறைவாக தனியுரிம தரவு அல்லது தனிப்பட்ட தரவை ஒரு AI சேவையில் செலுத்தலாம் (ChatGPT-யிடம் ரகசிய சம்பவ அறிக்கையைச் சுருக்கமாகக் கூறச் சொல்லுங்கள்), மேலும் அந்தத் தரவு மாதிரியின் அறிவின் ஒரு பகுதியாக மாறக்கூடும். உண்மையில், ஜெனரேட்டிவ் AI கருவிகளுக்கான உள்ளீடுகளில் 55% உணர்திறன் அல்லது தனிப்பட்ட முறையில் அடையாளம் காணக்கூடிய தகவல்களைக் கொண்டிருப்பதை , இது தரவு கசிவு குறித்த கடுமையான கவலைகளை எழுப்புகிறது ( ஜெனரேட்டிவ் AI பாதுகாப்பு: போக்குகள், அச்சுறுத்தல்கள் & தணிப்பு உத்திகள் ). கூடுதலாக, ஒரு AI உள் தரவுகளில் பயிற்சி பெற்றிருந்தால், அது சில வழிகளில் வினவப்பட்டால், அது வெளியிடக்கூடும் . நிறுவனங்கள் கடுமையான தரவு கையாளுதல் கொள்கைகளை செயல்படுத்த வேண்டும் (எ.கா. முக்கியமான பொருட்களுக்கு ஆன்-பிரைமிஸ் அல்லது தனியார் AI நிகழ்வுகளைப் பயன்படுத்துதல்) மற்றும் பொது AI கருவிகளில் ரகசியத் தகவல்களை ஒட்டாமல் இருப்பது குறித்து ஊழியர்களுக்குக் கல்வி கற்பிக்க வேண்டும். தனியுரிமை விதிமுறைகளும் (GDPR, முதலியன) செயல்பாட்டுக்கு வருகின்றன - முறையான ஒப்புதல் அல்லது பாதுகாப்பு இல்லாமல் AI ஐப் பயிற்றுவிக்க தனிப்பட்ட தரவைப் பயன்படுத்துவது சட்டங்களை மீறக்கூடும்.
-
மாதிரி பாதுகாப்பு மற்றும் கையாளுதல்: உருவாக்கும் AI மாதிரிகள் இலக்குகளாக மாறக்கூடும். எதிரிகள் மாதிரி விஷத்தை , பயிற்சி அல்லது மறுபயிற்சி கட்டத்தின் போது தீங்கிழைக்கும் அல்லது தவறாக வழிநடத்தும் தரவை வழங்கலாம், இதனால் AI தவறான வடிவங்களைக் கற்றுக்கொள்ளும் ( சைபர் பாதுகாப்பில் ஜெனரேட்டிவ் AI ஐ எவ்வாறு பயன்படுத்தலாம் ). எடுத்துக்காட்டாக, ஒரு தாக்குபவர் நுட்பமாக அச்சுறுத்தல் இன்டெல் தரவை விஷமாக்கலாம், இதனால் AI தாக்குபவரின் சொந்த தீம்பொருளை தீங்கிழைக்கும் என்று அடையாளம் காணத் தவறிவிடும். மற்றொரு தந்திரோபாயம் உடனடி ஊசி அல்லது வெளியீட்டு கையாளுதல் , அங்கு ஒரு தாக்குபவர் AI க்கு உள்ளீடுகளை வழங்குவதற்கான வழியைக் கண்டுபிடிப்பார், அது திட்டமிடப்படாத வழிகளில் நடந்து கொள்ள காரணமாகிறது - ஒருவேளை அதன் பாதுகாப்புத் தடுப்புகளைப் புறக்கணிக்க அல்லது அது செய்யக்கூடாத தகவல்களை வெளிப்படுத்த (உள் தூண்டுதல்கள் அல்லது தரவு போன்றவை). கூடுதலாக, மாதிரி ஏய்ப்பு : தாக்குபவர்கள் AI ஐ முட்டாளாக்க வடிவமைக்கப்பட்ட உள்ளீட்டை வடிவமைக்கிறார்கள். இதை நாம் விரோத உதாரணங்களில் காண்கிறோம் - ஒரு மனிதன் சாதாரணமாகக் காணும் ஆனால் AI தவறாக வகைப்படுத்தும் சற்று குழப்பமான தரவு. AI விநியோகச் சங்கிலி பாதுகாப்பானது என்பதை உறுதி செய்வது (தரவு ஒருமைப்பாடு, மாதிரி அணுகல் கட்டுப்பாடு, எதிர்மறையான வலிமை சோதனை) இந்தக் கருவிகளைப் பயன்படுத்தும்போது சைபர் பாதுகாப்பின் ஒரு புதிய ஆனால் அவசியமான பகுதியாகும் ( சைபர் பாதுகாப்பில் ஜெனரேட்டிவ் AI என்றால் என்ன? - பாலோ ஆல்டோ நெட்வொர்க்குகள் ).
-
அதிகப்படியான சார்பு மற்றும் திறன் அரிப்பு: நிறுவனங்கள் AI-ஐ அதிகமாக நம்பியிருக்கவும், மனித திறன்கள் சிதைந்து போகவும் வாய்ப்புள்ள ஒரு லேசான ஆபத்து உள்ளது. ஜூனியர் பகுப்பாய்வாளர்கள் AI வெளியீடுகளை குருட்டுத்தனமாக நம்பினால், AI கிடைக்காதபோது அல்லது தவறாக இருக்கும்போது அவர்களுக்குத் தேவையான விமர்சன சிந்தனை மற்றும் உள்ளுணர்வை வளர்த்துக் கொள்ளாமல் போகலாம். தவிர்க்க வேண்டிய ஒரு சூழ்நிலை என்னவென்றால், சிறந்த கருவிகளைக் கொண்ட ஒரு பாதுகாப்புக் குழு, ஆனால் அந்த கருவிகள் செயலிழந்தால் எப்படி செயல்படுவது என்று தெரியவில்லை (விமானிகள் தன்னியக்க பைலட்டை அதிகமாக நம்பியிருப்பது போன்றது). AI உதவி இல்லாமல் வழக்கமான பயிற்சிப் பயிற்சிகள் மற்றும் AI என்பது ஒரு உதவியாளர், ஒரு தவறற்ற ஆரக்கிள் அல்ல என்ற மனநிலையை வளர்ப்பது, மனித பகுப்பாய்வாளர்களை கூர்மையாக வைத்திருக்க முக்கியம். மனிதர்கள் இறுதி முடிவெடுப்பவர்களாக இருக்க வேண்டும், குறிப்பாக அதிக தாக்கத்தை ஏற்படுத்தும் தீர்ப்புகளுக்கு.
-
நெறிமுறை மற்றும் இணக்க சவால்கள்: சைபர் பாதுகாப்பில் AI இன் பயன்பாடு நெறிமுறை கேள்விகளை எழுப்புகிறது மற்றும் ஒழுங்குமுறை இணக்க சிக்கல்களைத் தூண்டக்கூடும். உதாரணமாக, ஒரு AI அமைப்பு ஒரு பணியாளரை ஒரு ஒழுங்கின்மை காரணமாக தீங்கிழைக்கும் உள் நபராக தவறாகக் குறித்தால், அது அந்த நபரின் நற்பெயர் அல்லது தொழிலை நியாயமற்ற முறையில் சேதப்படுத்தக்கூடும். AI ஆல் எடுக்கப்பட்ட முடிவுகள் தெளிவற்றதாக இருக்கலாம் ("கருப்புப் பெட்டி" பிரச்சனை), சில நடவடிக்கைகள் ஏன் எடுக்கப்பட்டன என்பதை தணிக்கையாளர்கள் அல்லது கட்டுப்பாட்டாளர்களுக்கு விளக்குவது கடினம். AI-உருவாக்கப்பட்ட உள்ளடக்கம் அதிகமாகி வருவதால், வெளிப்படைத்தன்மையை உறுதி செய்வதும் பொறுப்புணர்வைப் பராமரிப்பதும் மிக முக்கியம். கட்டுப்பாட்டாளர்கள் AI ஐ ஆராயத் தொடங்கியுள்ளனர் - எடுத்துக்காட்டாக, EU இன் AI சட்டம் "அதிக ஆபத்து" AI அமைப்புகளில் தேவைகளை விதிக்கும், மேலும் சைபர் பாதுகாப்பு AI அந்த வகையில் வரக்கூடும். நிறுவனங்கள் இந்த விதிமுறைகளை வழிநடத்த வேண்டும் மற்றும் NIST AI இடர் மேலாண்மை கட்டமைப்பு போன்ற தரநிலைகளை கடைபிடிக்க வேண்டும், இது ஜெனரேட்டிவ் AI ஐ பொறுப்புடன் பயன்படுத்த வேண்டும் ( சைபர் பாதுகாப்பில் ஜெனரேட்டிவ் AI ஐ எவ்வாறு பயன்படுத்தலாம்? 10 நிஜ உலக எடுத்துக்காட்டுகள் ). இணக்கம் உரிமம் வழங்குவதற்கும் நீட்டிக்கப்படுகிறது: திறந்த மூல அல்லது மூன்றாம் தரப்பு மாதிரிகளைப் பயன்படுத்துவது சில பயன்பாடுகளை கட்டுப்படுத்தும் அல்லது பகிர்வு மேம்பாடுகள் தேவைப்படும் சொற்களைக் கொண்டிருக்கலாம்.
சுருக்கமாக, ஜெனரேட்டிவ் AI ஒரு வெள்ளிப் புல்லட் அல்ல - கவனமாக செயல்படுத்தப்படாவிட்டால், அது மற்றவற்றைத் தீர்க்கும்போது கூட புதிய பலவீனங்களை அறிமுகப்படுத்தக்கூடும். 2024 உலகப் பொருளாதார மன்ற ஆய்வு, ~47% நிறுவனங்கள் தாக்குபவர்களால் ஜெனரேட்டிவ் AI இல் ஏற்படும் முன்னேற்றங்களை ஒரு முதன்மைக் கவலையாகக் குறிப்பிடுகின்றன, இது சைபர் பாதுகாப்பில் "ஜெனரேட்டிவ் AI இன் மிகவும் கவலைக்குரிய தாக்கமாக" [PDF] உலகளாவிய சைபர் பாதுகாப்பு அவுட்லுக் 2025 | உலகப் பொருளாதார மன்றம் ) ( ஜெனரேட்டிவ் AI இன் LLM இன் விரிவான மதிப்பாய்வு ... ). எனவே நிறுவனங்கள் ஒரு சமநிலையான அணுகுமுறையை ஏற்றுக்கொள்ள வேண்டும்: நிர்வாகம், சோதனை மற்றும் மனித மேற்பார்வை மூலம் இந்த அபாயங்களை கடுமையாக நிர்வகிக்கும் அதே வேளையில் AI இன் நன்மைகளைப் பயன்படுத்திக் கொள்ளுங்கள். அந்த சமநிலையை நடைமுறையில் எவ்வாறு அடைவது என்பதை அடுத்து விவாதிப்போம்.
எதிர்காலக் கண்ணோட்டம்: சைபர் பாதுகாப்பில் ஜெனரேட்டிவ் AI இன் வளர்ந்து வரும் பங்கு
எதிர்காலத்தைப் பார்க்கும்போது, ஜெனரேட்டிவ் AI, சைபர் பாதுகாப்பு உத்தியின் ஒருங்கிணைந்த பகுதியாக மாறத் தயாராக உள்ளது - அதேபோல், சைபர் எதிரிகள் தொடர்ந்து பயன்படுத்திக் கொள்ளும் ஒரு கருவியாகவும் மாற உள்ளது. பூனை-எலி இயக்கவியல் வேகமெடுக்கும், AI இருபுறமும் வேலியின் இருபுறமும் இருக்கும். ஜெனரேட்டிவ் AI, வரும் ஆண்டுகளில் சைபர் பாதுகாப்பை எவ்வாறு வடிவமைக்கக்கூடும் என்பது குறித்த சில எதிர்கால நுண்ணறிவுகள் இங்கே:
-
AI-ஆக்மென்ட் செய்யப்பட்ட சைபர் பாதுகாப்பு தரநிலையாகிறது: 2025 மற்றும் அதற்குப் பிறகு, பெரும்பாலான நடுத்தர மற்றும் பெரிய நிறுவனங்கள் தங்கள் பாதுகாப்பு நடவடிக்கைகளில் AI-இயக்கப்படும் கருவிகளை இணைத்திருக்கும் என்று எதிர்பார்க்கலாம். இன்று வைரஸ் தடுப்பு மற்றும் ஃபயர்வால்கள் நிலையானதாக இருப்பது போல, AI கோபிலட்டுகள் மற்றும் ஒழுங்கின்மை கண்டறிதல் அமைப்புகள் பாதுகாப்பு கட்டமைப்புகளின் அடிப்படை கூறுகளாக மாறக்கூடும். இந்த கருவிகள் மிகவும் சிறப்பு வாய்ந்ததாக மாறும் - உதாரணமாக, கிளவுட் பாதுகாப்பு, IoT சாதன கண்காணிப்பு, பயன்பாட்டு குறியீடு பாதுகாப்பு மற்றும் பலவற்றிற்காக சிறப்பாக வடிவமைக்கப்பட்ட தனித்துவமான AI மாதிரிகள், அனைத்தும் இணைந்து செயல்படுகின்றன. ஒரு கணிப்பு குறிப்பிடுவது போல, "2025 ஆம் ஆண்டில், ஜெனரேட்டிவ் AI சைபர் பாதுகாப்பிற்கு ஒருங்கிணைந்ததாக இருக்கும், இது நிறுவனங்கள் அதிநவீன மற்றும் வளர்ந்து வரும் அச்சுறுத்தல்களுக்கு எதிராக முன்கூட்டியே பாதுகாக்க உதவும்" ( சைபர் பாதுகாப்பில் ஜெனரேட்டிவ் AI ஐ எவ்வாறு பயன்படுத்தலாம் ). AI நிகழ்நேர அச்சுறுத்தல் கண்டறிதலை மேம்படுத்தும், பல பதில் நடவடிக்கைகளை தானியங்குபடுத்தும், மற்றும் பாதுகாப்பு குழுக்கள் கைமுறையாக முடிந்ததை விட மிகப் பெரிய அளவிலான தரவை நிர்வகிக்க உதவும்.
-
தொடர்ச்சியான கற்றல் மற்றும் தகவமைப்பு: விரைவாகக் கற்றுக்கொள்வதில் சிறந்து விளங்கும் , அவற்றின் அறிவுத் தளத்தை கிட்டத்தட்ட நிகழ்நேரத்தில் புதுப்பிக்கும். இது உண்மையிலேயே தகவமைப்புத் தற்காப்புகளுக்கு வழிவகுக்கும் - காலையில் மற்றொரு நிறுவனத்தைத் தாக்கும் ஒரு புதிய ஃபிஷிங் பிரச்சாரத்தைப் பற்றி அறிந்துகொண்டு, பிற்பகலுக்குள் உங்கள் நிறுவனத்தின் மின்னஞ்சல் வடிப்பான்களை ஏற்கனவே சரிசெய்திருக்கும் ஒரு AI ஐ கற்பனை செய்து பாருங்கள். கிளவுட் அடிப்படையிலான AI பாதுகாப்பு சேவைகள் இந்த வகையான கூட்டு கற்றலை எளிதாக்கக்கூடும், அங்கு ஒரு நிறுவனத்திலிருந்து அநாமதேய நுண்ணறிவு அனைத்து சந்தாதாரர்களுக்கும் பயனளிக்கும் (அச்சுறுத்தல் இன்டெல் பகிர்வு போன்றது, ஆனால் தானியங்கி). இருப்பினும், முக்கியமான தகவல்களைப் பகிர்வதைத் தவிர்க்கவும், தாக்குதல் நடத்துபவர்கள் பகிரப்பட்ட மாதிரிகளில் மோசமான தரவை ஊட்டுவதைத் தடுக்கவும் இதை கவனமாகக் கையாள வேண்டும்.
-
AI மற்றும் சைபர் பாதுகாப்பு திறமையின் ஒருங்கிணைப்பு: சைபர் பாதுகாப்பு நிபுணர்களின் திறன் தொகுப்பு, AI மற்றும் தரவு அறிவியலில் தேர்ச்சியை உள்ளடக்கியதாக உருவாகும். இன்றைய ஆய்வாளர்கள் வினவல் மொழிகள் மற்றும் ஸ்கிரிப்டிங்கைக் கற்றுக்கொள்வது போல, நாளைய ஆய்வாளர்கள் AI மாதிரிகளை தொடர்ந்து மேம்படுத்தலாம் அல்லது AI செயல்படுத்த "பிளேபுக்குகளை" எழுதலாம். "AI பாதுகாப்பு பயிற்சியாளர்" அல்லது "சைபர் பாதுகாப்பு AI பொறியாளர்" - ஒரு நிறுவனத்தின் தேவைகளுக்கு ஏற்ப AI கருவிகளை மாற்றியமைப்பதில், அவற்றின் செயல்திறனை சரிபார்ப்பதில் மற்றும் அவை பாதுகாப்பாக செயல்படுவதை உறுதி செய்வதில் நிபுணத்துவம் பெற்றவர்கள். மறுபுறம், சைபர் பாதுகாப்பு பரிசீலனைகள் AI வளர்ச்சியை அதிகளவில் பாதிக்கும். AI அமைப்புகள் அடிப்படையிலிருந்து பாதுகாப்பு அம்சங்களுடன் (பாதுகாப்பான கட்டமைப்பு, சேதப்படுத்தல் கண்டறிதல், AI முடிவுகளுக்கான தணிக்கை பதிவுகள் போன்றவை) கட்டமைக்கப்படும், மேலும் நம்பகமான AI (நியாயமான, விளக்கக்கூடிய, வலுவான மற்றும் பாதுகாப்பானவை) பாதுகாப்பு-முக்கியமான சூழல்களில் அவற்றின் பயன்பாட்டை வழிநடத்தும்.
-
மேலும் அதிநவீன AI-இயக்கப்படும் தாக்குதல்கள்: துரதிர்ஷ்டவசமாக, அச்சுறுத்தல் நிலப்பரப்பும் AI உடன் உருவாகும். பூஜ்ஜிய-நாள் பாதிப்புகளைக் கண்டறிய, அதிக இலக்கு வைக்கப்பட்ட ஸ்பியர் ஃபிஷிங்கை உருவாக்க (எ.கா. AI சமூக ஊடகங்களை சரியாக வடிவமைக்கப்பட்ட தூண்டில் உருவாக்குதல்) மற்றும் பயோமெட்ரிக் அங்கீகாரத்தைத் தவிர்ப்பதற்கு அல்லது மோசடியைச் செய்வதற்கு உறுதியான ஆழமான போலி குரல்கள் அல்லது வீடியோக்களை உருவாக்க AI ஐ அடிக்கடி பயன்படுத்துவதை நாங்கள் எதிர்பார்க்கிறோம். குறைந்தபட்ச மனித மேற்பார்வையுடன் பல-நிலை தாக்குதல்களை (உளவு, சுரண்டல், பக்கவாட்டு இயக்கம் போன்றவை) சுயாதீனமாக மேற்கொள்ளக்கூடிய தானியங்கி ஹேக்கிங் முகவர்கள் உருவாகலாம். இது பாதுகாவலர்களை AI-ஐ நம்பியிருக்க அழுத்தம் கொடுக்கும் - அடிப்படையில் ஆட்டோமேஷன் vs. ஆட்டோமேஷன் . சில தாக்குதல்கள் இயந்திர வேகத்தில் நிகழலாம், AI பாட்கள் ஆயிரம் ஃபிஷிங் மின்னஞ்சல் வரிசைமாற்றங்களை முயற்சிப்பது போல, எது வடிப்பான்களைக் கடந்தது என்பதைப் பார்க்க முயற்சிக்கிறது. சைபர் பாதுகாப்புகள் இதேபோன்ற வேகத்திலும் நெகிழ்வுத்தன்மையிலும் செயல்பட வேண்டும் ( சைபர் பாதுகாப்பில் ஜெனரேட்டிவ் AI என்றால் என்ன? - பாலோ ஆல்டோ நெட்வொர்க்குகள் ).
-
பாதுகாப்பில் ஒழுங்குமுறை மற்றும் நெறிமுறை AI: சைபர் பாதுகாப்பு செயல்பாடுகளில் AI ஆழமாகப் பதிக்கப்படுவதால், இந்த AI அமைப்புகள் பொறுப்புடன் பயன்படுத்தப்படுவதை உறுதிசெய்ய அதிக ஆய்வு மற்றும் சாத்தியமான ஒழுங்குமுறை இருக்கும். பாதுகாப்பில் AI-க்கு குறிப்பிட்ட கட்டமைப்புகள் மற்றும் தரநிலைகளை நாம் எதிர்பார்க்கலாம். அரசாங்கங்கள் வெளிப்படைத்தன்மைக்கான வழிகாட்டுதல்களை அமைக்கலாம் - எ.கா., குறிப்பிடத்தக்க பாதுகாப்பு முடிவுகளை (சந்தேகத்திற்குரிய தீங்கிழைக்கும் செயல்பாட்டிற்கான ஒரு பணியாளரின் அணுகலை நிறுத்துவது போன்றவை) மனித மதிப்பாய்வு இல்லாமல் AI-ஆல் மட்டும் எடுக்க முடியாது என்று கோருதல். AI சார்பு, வலிமை மற்றும் பாதுகாப்பிற்காக மதிப்பீடு செய்யப்பட்டுள்ளது என்பதை வாங்குபவர்களுக்கு உறுதிசெய்ய, AI பாதுகாப்பு தயாரிப்புகளுக்கான சான்றிதழ்களும் இருக்கலாம். மேலும், AI தொடர்பான சைபர் அச்சுறுத்தல்களைச் சுற்றி சர்வதேச ஒத்துழைப்பு வளரக்கூடும்; எடுத்துக்காட்டாக, AI-உருவாக்கப்பட்ட தவறான தகவல்களைக் கையாள்வதற்கான ஒப்பந்தங்கள் அல்லது சில AI-இயக்கப்படும் சைபர் ஆயுதங்களுக்கு எதிரான விதிமுறைகள்.
-
பரந்த AI மற்றும் IT சுற்றுச்சூழல் அமைப்புகளுடன் ஒருங்கிணைப்பு: சைபர் பாதுகாப்பில் ஜெனரேட்டிவ் AI, பிற AI அமைப்புகள் மற்றும் IT மேலாண்மை கருவிகளுடன் ஒருங்கிணைக்க வாய்ப்புள்ளது. எடுத்துக்காட்டாக, நெட்வொர்க் உகப்பாக்கத்தை நிர்வகிக்கும் ஒரு AI, மாற்றங்கள் ஓட்டைகளைத் திறக்காமல் இருப்பதை உறுதிசெய்ய பாதுகாப்பு AI உடன் இணைந்து செயல்பட முடியும். AI-இயக்கப்படும் வணிக பகுப்பாய்வு, முரண்பாடுகளை (தாக்குதல் காரணமாக விற்பனையில் திடீர் வீழ்ச்சி மற்றும் சாத்தியமான வலைத்தள சிக்கல் போன்றவை) தொடர்புபடுத்த பாதுகாப்பு AIகளுடன் தரவைப் பகிர்ந்து கொள்ளலாம். சாராம்சத்தில், AI ஒரு சைலோவில் வாழாது - இது ஒரு நிறுவனத்தின் செயல்பாடுகளின் பெரிய அறிவார்ந்த கட்டமைப்பின் ஒரு பகுதியாக இருக்கும். இது முழுமையான இடர் மேலாண்மைக்கான வாய்ப்புகளைத் திறக்கிறது, அங்கு செயல்பாட்டுத் தரவு, அச்சுறுத்தல் தரவு மற்றும் உடல் பாதுகாப்புத் தரவு கூட AI ஆல் இணைக்கப்பட்டு நிறுவன பாதுகாப்பு நிலைப்பாட்டின் 360 டிகிரி பார்வையை வழங்க முடியும்.
நீண்ட காலத்திற்கு, ஜெனரேட்டிவ் AI, பாதுகாவலர்களுக்கு ஆதரவாக சமநிலையை சாய்க்க உதவும் என்பது நம்பிக்கை. நவீன IT சூழல்களின் அளவு மற்றும் சிக்கலான தன்மையைக் கையாள்வதன் மூலம், AI சைபர்ஸ்பேஸை மேலும் தற்காப்புடன் மாற்ற முடியும். இருப்பினும், இது ஒரு பயணம், மேலும் இந்த தொழில்நுட்பங்களை நாம் செம்மைப்படுத்தி அவற்றை சரியான முறையில் நம்பக் கற்றுக் கொள்ளும்போது வளரும் வலிகள் இருக்கும். தகவலறிந்தவர்களாகவும், பொறுப்பான AI தத்தெடுப்பில் எதிர்கால அச்சுறுத்தல்களை எதிர்கொள்ள சிறந்த நிலையில் இருக்கும்.
கார்ட்னரின் சமீபத்திய சைபர் பாதுகாப்பு போக்குகள் அறிக்கை குறிப்பிட்டது போல, “உருவாக்கும் AI பயன்பாட்டு நிகழ்வுகளின் (மற்றும் அபாயங்களின்) தோற்றம் மாற்றத்திற்கான அழுத்தத்தை உருவாக்குகிறது” ( சைபர் பாதுகாப்பு போக்குகள்: உருமாற்றத்தின் மூலம் மீள்தன்மை - கார்ட்னர் ). தகவமைப்புத் திறன் கொண்டவர்கள் AI ஐ ஒரு சக்திவாய்ந்த கூட்டாளியாகப் பயன்படுத்துவார்கள்; பின்தங்கியவர்கள் AI- அதிகாரம் பெற்ற எதிரிகளால் தங்களை விஞ்சக்கூடும். அடுத்த சில ஆண்டுகள் AI சைபர் போர்க்களத்தை எவ்வாறு மறுவடிவமைக்கிறது என்பதை வரையறுப்பதில் ஒரு முக்கிய நேரமாக இருக்கும்.
சைபர் பாதுகாப்பில் ஜெனரேட்டிவ் AI-ஐ ஏற்றுக்கொள்வதற்கான நடைமுறை குறிப்புகள்
தங்கள் சைபர் பாதுகாப்பு உத்தியில் ஜெனரேட்டிவ் AI-ஐ எவ்வாறு பயன்படுத்துவது என்பதை மதிப்பிடும் வணிகங்களுக்கு, பொறுப்பான மற்றும் பயனுள்ள தத்தெடுப்பை வழிநடத்த நடைமுறை குறிப்புகள் மற்றும் பரிந்துரைகள்
-
கல்வி மற்றும் பயிற்சியுடன் தொடங்குங்கள்: உங்கள் பாதுகாப்பு குழு (மற்றும் பரந்த IT ஊழியர்கள்) ஜெனரேட்டிவ் AI என்ன செய்ய முடியும் மற்றும் என்ன செய்ய முடியாது என்பதைப் புரிந்துகொள்வதை உறுதிசெய்யவும். AI-இயக்கப்படும் பாதுகாப்பு கருவிகளின் அடிப்படைகள் குறித்து பயிற்சி அளித்து, AI-இயக்கப்படும் அச்சுறுத்தல்களை மறைக்க அனைத்து ஊழியர்களுக்கும் உங்கள் பாதுகாப்பு விழிப்புணர்வு திட்டங்களைப் . எடுத்துக்காட்டாக, AI எவ்வாறு மிகவும் உறுதியான ஃபிஷிங் மோசடிகள் மற்றும் ஆழமான போலி அழைப்புகளை உருவாக்க முடியும் என்பதை ஊழியர்களுக்குக் கற்றுக் கொடுங்கள். அதே நேரத்தில், ஊழியர்களுக்கு அவர்களின் வேலையில் AI கருவிகளைப் பாதுகாப்பாகவும் அங்கீகரிக்கப்பட்டதாகவும் பயன்படுத்துவது குறித்து பயிற்சி அளிக்கவும். நன்கு அறிந்த பயனர்கள் AI ஐ தவறாகக் கையாளும் அல்லது AI-மேம்படுத்தப்பட்ட தாக்குதல்களுக்கு பலியாகும் வாய்ப்புகள் குறைவு ( சைபர் பாதுகாப்பில் ஜெனரேட்டிவ் AI ஐ எவ்வாறு பயன்படுத்தலாம்? 10 நிஜ உலக எடுத்துக்காட்டுகள் ).
-
தெளிவான AI பயன்பாட்டுக் கொள்கைகளை வரையறுக்கவும்: நிர்வாகத்துடன் கூடிய எந்தவொரு சக்திவாய்ந்த தொழில்நுட்பத்தையும் போல ஜெனரேட்டிவ் AI-ஐ நடத்துங்கள். AI கருவிகளை யார் பயன்படுத்தலாம், எந்த கருவிகள் அனுமதிக்கப்படுகின்றன, எந்த நோக்கங்களுக்காக என்பதை குறிப்பிடும் கொள்கைகளை உருவாக்குங்கள். கசிவுகளைத் தடுக்க, முக்கியமான தரவைக் கையாள்வதற்கான வழிகாட்டுதல்களைச் சேர்க்கவும் (எ.கா. ரகசியத் தரவை வழங்கக்கூடாது ). உதாரணமாக, சம்பவ பதிலுக்கு உள் AI உதவியாளரைப் பயன்படுத்த பாதுகாப்பு குழு உறுப்பினர்கள் மட்டுமே அனுமதிக்கலாம், மேலும் சந்தைப்படுத்தல் உள்ளடக்கத்திற்கு சரிபார்க்கப்பட்ட AI-ஐப் பயன்படுத்தலாம் - மற்ற அனைவரும் கட்டுப்படுத்தப்பட்டுள்ளனர். பல நிறுவனங்கள் இப்போது தங்கள் IT கொள்கைகளில் ஜெனரேட்டிவ் AI-ஐ வெளிப்படையாகக் குறிப்பிடுகின்றன, மேலும் முன்னணி தரநிலை அமைப்புகள் நேரடித் தடைகளுக்குப் பதிலாக பாதுகாப்பான பயன்பாட்டுக் கொள்கைகளை ஊக்குவிக்கின்றன ( சைபர் பாதுகாப்பில் ஜெனரேட்டிவ் AI-ஐ எவ்வாறு பயன்படுத்தலாம்? 10 நிஜ உலக எடுத்துக்காட்டுகள் ). இந்த விதிகள் மற்றும் அவற்றின் பின்னணியில் உள்ள பகுத்தறிவை அனைத்து ஊழியர்களுக்கும் தெரிவிக்க மறக்காதீர்கள்.
-
"நிழல் AI" மற்றும் கண்காணிப்பு பயன்பாட்டைத் தணித்தல்: நிழல் IT போலவே, ஊழியர்கள் IT-க்கு தெரியாமல் AI கருவிகள் அல்லது சேவைகளைப் பயன்படுத்தத் தொடங்கும் போது "நிழல் AI" எழுகிறது (எ.கா. அங்கீகரிக்கப்படாத AI குறியீட்டு உதவியாளரைப் பயன்படுத்தும் டெவலப்பர்). இது கண்ணுக்குத் தெரியாத அபாயங்களை அறிமுகப்படுத்தலாம். அங்கீகரிக்கப்படாத AI பயன்பாட்டைக் கண்டறிந்து கட்டுப்படுத்த . நெட்வொர்க் கண்காணிப்பு பிரபலமான AI API-களுக்கான இணைப்புகளைக் கொடியிடலாம், மேலும் கணக்கெடுப்புகள் அல்லது கருவி தணிக்கைகள் ஊழியர்கள் என்ன பயன்படுத்துகிறார்கள் என்பதைக் கண்டறியலாம். அங்கீகரிக்கப்பட்ட மாற்றுகளை வழங்குங்கள், இதனால் நல்லெண்ணம் கொண்ட ஊழியர்கள் முரட்டுத்தனமாகச் செயல்படத் தூண்டப்படுவதில்லை (உதாரணமாக, மக்கள் பயனுள்ளதாகக் கண்டால் அதிகாரப்பூர்வ ChatGPT நிறுவனக் கணக்கை வழங்கவும்). AI பயன்பாட்டை வெளிச்சத்திற்குக் கொண்டுவருவதன் மூலம், பாதுகாப்பு குழுக்கள் ஆபத்தை மதிப்பிட்டு நிர்வகிக்க முடியும். கண்காணிப்பும் முக்கியமானது - AI கருவி செயல்பாடுகள் மற்றும் வெளியீடுகளை முடிந்தவரை முடிந்தவரை பதிவு செய்யவும், எனவே AI செல்வாக்கு செலுத்திய முடிவுகளுக்கு ஒரு தணிக்கை பாதை உள்ளது ( சைபர் பாதுகாப்பில் ஜெனரேட்டிவ் AI ஐ எவ்வாறு பயன்படுத்தலாம்? 10 நிஜ உலக எடுத்துக்காட்டுகள் ).
-
தற்காப்பு ரீதியாக AI-ஐப் பயன்படுத்துங்கள் - பின்தங்காதீர்கள்: தாக்குபவர்கள் AI-ஐப் பயன்படுத்துவார்கள் என்பதை அங்கீகரிக்கவும், எனவே உங்கள் பாதுகாப்பும் அப்படித்தான் இருக்க வேண்டும். ஜெனரேட்டிவ் AI உங்கள் பாதுகாப்பு நடவடிக்கைகளுக்கு உடனடியாக உதவக்கூடிய சில உயர் தாக்கப் பகுதிகளை அடையாளம் காணவும் (ஒருவேளை ட்ரையேஜ் அல்லது தானியங்கி பதிவு பகுப்பாய்வை எச்சரிக்கவும்) மற்றும் பைலட் திட்டங்களை இயக்கவும். வேகமாக நகரும் அச்சுறுத்தல்களை எதிர்கொள்ள AI-யின் வேகம் மற்றும் அளவுகோலுடன் உங்கள் பாதுகாப்புகளை அதிகரிக்கவும் சைபர் செக்யூரிட்டியில் ஜெனரேட்டிவ் AI-ஐ எவ்வாறு பயன்படுத்தலாம்? 10 நிஜ உலக எடுத்துக்காட்டுகள் ). தீம்பொருள் அறிக்கைகளைச் சுருக்கமாகச் சொல்ல அல்லது அச்சுறுத்தல் வேட்டை வினவல்களை உருவாக்க AI-ஐப் பயன்படுத்துவது போன்ற எளிய ஒருங்கிணைப்புகள் கூட, ஆய்வாளர்களின் நேரத்தை மிச்சப்படுத்தும். சிறியதாகத் தொடங்குங்கள், முடிவுகளை மதிப்பீடு செய்து மீண்டும் மீண்டும் சொல்லுங்கள். வெற்றிகள் பரந்த AI தத்தெடுப்புக்கான வழக்கை உருவாக்கும். AI-ஐ ஒரு சக்தி பெருக்கியாகப் பயன்படுத்துவதே குறிக்கோள் - எடுத்துக்காட்டாக, ஃபிஷிங் தாக்குதல்கள் உங்கள் உதவி மையத்தை அதிகமாகக் கொண்டிருந்தால், அந்த அளவை முன்கூட்டியே குறைக்க AI மின்னஞ்சல் வகைப்படுத்தியைப் பயன்படுத்தவும்.
-
பாதுகாப்பான மற்றும் நெறிமுறை AI நடைமுறைகளில் முதலீடு செய்யுங்கள்: ஜெனரேட்டிவ் AI-ஐ செயல்படுத்தும்போது, பாதுகாப்பான மேம்பாடு மற்றும் வரிசைப்படுத்தல் நடைமுறைகளைப் பின்பற்றவும். தனியார் அல்லது சுய-ஹோஸ்ட் செய்யப்பட்ட மாதிரிகளைப் . மூன்றாம் தரப்பு AI சேவைகளைப் பயன்படுத்தினால், அவற்றின் பாதுகாப்பு மற்றும் தனியுரிமை நடவடிக்கைகளை (குறியாக்கம், தரவு தக்கவைப்பு கொள்கைகள் போன்றவை) மதிப்பாய்வு செய்யவும். உங்கள் AI கருவிகளில் சார்பு, விளக்கக்கூடிய தன்மை மற்றும் வலிமை போன்ற விஷயங்களை முறையாக நிவர்த்தி செய்ய AI இடர் மேலாண்மை கட்டமைப்புகளை (NIST இன் AI இடர் மேலாண்மை கட்டமைப்பு அல்லது ISO/IEC வழிகாட்டுதல் போன்றவை) இணைக்கவும் ( சைபர் பாதுகாப்பில் ஜெனரேட்டிவ் AI-ஐ எவ்வாறு பயன்படுத்தலாம்? 10 நிஜ உலக எடுத்துக்காட்டுகள் ). பராமரிப்பின் ஒரு பகுதியாக மாதிரி புதுப்பிப்புகள்/பேட்ச்களையும் திட்டமிடுங்கள் - AI மாதிரிகள் "பாதிப்புகளை" கொண்டிருக்கலாம் (எ.கா. அவை நகர்ந்து செல்லத் தொடங்கினால் அல்லது மாதிரியின் மீது ஒரு புதிய வகை விரோதத் தாக்குதல் கண்டறியப்பட்டால் அவர்களுக்கு மீண்டும் பயிற்சி தேவைப்படலாம்). உங்கள் AI பயன்பாட்டில் பாதுகாப்பு மற்றும் நெறிமுறைகளை இணைப்பதன் மூலம், நீங்கள் விளைவுகளில் நம்பிக்கையை வளர்த்துக் கொள்கிறீர்கள் மற்றும் வளர்ந்து வரும் விதிமுறைகளுக்கு இணங்குவதை உறுதிசெய்கிறீர்கள்.
-
மனிதர்களை சுழற்சியில் வைத்திருங்கள்: சைபர் பாதுகாப்பில் மனித தீர்ப்புக்கு உதவ AI ஐப் பயன்படுத்தவும், முழுமையாக மாற்ற வேண்டாம். மனித சரிபார்ப்பு தேவைப்படும் முடிவுப் புள்ளிகளைத் தீர்மானிக்கவும் (உதாரணமாக, ஒரு AI ஒரு சம்பவ அறிக்கையை வரையலாம், ஆனால் ஒரு ஆய்வாளர் அதை விநியோகிப்பதற்கு முன் மதிப்பாய்வு செய்யலாம்; அல்லது ஒரு AI ஒரு பயனர் கணக்கைத் தடுக்க பரிந்துரைக்கலாம், ஆனால் ஒரு மனிதர் அந்தச் செயலை அங்கீகரிக்கிறார்). இது AI பிழைகள் சரிபார்க்கப்படாமல் இருப்பதைத் தடுப்பது மட்டுமல்லாமல், உங்கள் குழு AI இலிருந்து கற்றுக்கொள்ளவும், நேர்மாறாகவும் உதவுகிறது. கூட்டுப் பணிப்பாய்வை ஊக்குவிக்கவும்: ஆய்வாளர்கள் AI வெளியீடுகளைக் கேள்வி கேட்பதற்கும், நல்லறிவு சோதனைகளைச் செய்வதற்கும் வசதியாக இருக்க வேண்டும். காலப்போக்கில், இந்த உரையாடல் AI (கருத்து மூலம்) மற்றும் ஆய்வாளர்களின் திறன்கள் இரண்டையும் மேம்படுத்தலாம். அடிப்படையில், AI மற்றும் மனித பலங்கள் ஒன்றையொன்று பூர்த்தி செய்யும் வகையில் உங்கள் செயல்முறைகளை வடிவமைக்கவும் - AI அளவு மற்றும் வேகத்தைக் கையாளுகிறது, மனிதர்கள் தெளிவின்மை மற்றும் இறுதி முடிவுகளைக் கையாளுகிறது.
-
அளவிடுதல், கண்காணித்தல் மற்றும் சரிசெய்தல்: இறுதியாக, உங்கள் உருவாக்க AI கருவிகளை உங்கள் பாதுகாப்பு சுற்றுச்சூழல் அமைப்பின் உயிருள்ள கூறுகளாகக் கருதுங்கள். அவற்றின் செயல்திறனைத் தொடர்ந்து அளவிடுங்கள் - அவை சம்பவ மறுமொழி நேரங்களைக் குறைக்கின்றனவா? அச்சுறுத்தல்களை முன்கூட்டியே பிடிக்கின்றனவா? தவறான நேர்மறை விகிதம் எவ்வாறு பிரபலமாகிறது? குழுவிடமிருந்து கருத்துகளைப் பெறுங்கள்: AI இன் பரிந்துரைகள் பயனுள்ளதா, அல்லது அது சத்தத்தை உருவாக்குகிறதா? மாதிரிகளைச் செம்மைப்படுத்த, பயிற்சித் தரவைப் புதுப்பிக்க அல்லது AI எவ்வாறு ஒருங்கிணைக்கப்படுகிறது என்பதை சரிசெய்ய இந்த அளவீடுகளைப் பயன்படுத்தவும். சைபர் அச்சுறுத்தல்கள் மற்றும் வணிகத் தேவைகள் உருவாகின்றன, மேலும் உங்கள் AI மாதிரிகள் திறம்பட செயல்பட அவ்வப்போது புதுப்பிக்கப்பட வேண்டும் அல்லது மீண்டும் பயிற்சி பெற வேண்டும். அதன் பராமரிப்புக்கு யார் பொறுப்பு, அது எவ்வளவு அடிக்கடி மதிப்பாய்வு செய்யப்படுகிறது என்பது உட்பட மாதிரி நிர்வாகத்திற்கான ஒரு திட்டத்தை வைத்திருங்கள். AI இன் வாழ்க்கைச் சுழற்சியை தீவிரமாக நிர்வகிப்பதன் மூலம், அது ஒரு சொத்தாக இருப்பதை உறுதிசெய்கிறீர்கள், ஒரு பொறுப்பாக அல்ல.
முடிவில், உருவாக்க AI சைபர் பாதுகாப்பு திறன்களை கணிசமாக மேம்படுத்த முடியும், ஆனால் வெற்றிகரமான தத்தெடுப்புக்கு சிந்தனைமிக்க திட்டமிடல் மற்றும் தொடர்ச்சியான மேற்பார்வை தேவைப்படுகிறது. தங்கள் மக்களுக்கு கல்வி கற்பிக்கும், தெளிவான வழிகாட்டுதல்களை அமைக்கும் மற்றும் சமநிலையான, பாதுகாப்பான வழியில் AI ஐ ஒருங்கிணைக்கும் வணிகங்கள் வேகமான, சிறந்த அச்சுறுத்தல் நிர்வாகத்தின் வெகுமதிகளைப் பெறும். அந்த எடுத்துக்காட்டுகள் ஒரு சாலை வரைபடத்தை வழங்குகின்றன: மனித நிபுணத்துவத்தை AI ஆட்டோமேஷனுடன் இணைத்தல், நிர்வாக அடிப்படைகளை உள்ளடக்கியது மற்றும் AI தொழில்நுட்பம் மற்றும் அச்சுறுத்தல் நிலப்பரப்பு இரண்டும் தவிர்க்க முடியாமல் உருவாகும்போது சுறுசுறுப்பைப் பராமரித்தல்.
"சைபர் பாதுகாப்பில் ஜெனரேட்டிவ் AI ஐ எவ்வாறு பயன்படுத்தலாம்?" என்ற கேள்விக்கு நம்பிக்கையுடன் பதிலளிக்க முடியும் - கோட்பாட்டளவில் மட்டுமல்ல, அன்றாட நடைமுறையிலும் - இதன் மூலம் நமது அதிகரித்து வரும் டிஜிட்டல் மற்றும் AI-உந்துதல் உலகில் அவர்களின் பாதுகாப்பை வலுப்படுத்த முடியும். ( சைபர் பாதுகாப்பில் ஜெனரேட்டிவ் AI ஐ எவ்வாறு பயன்படுத்தலாம் )
இதற்குப் பிறகு நீங்கள் படிக்க விரும்பக்கூடிய வெள்ளை அறிக்கைகள்:
🔗 AI ஆல் மாற்ற முடியாத வேலைகள் மற்றும் AI எந்த வேலைகளை மாற்றும்?
எந்தெந்தப் பாத்திரங்கள் ஆட்டோமேஷனில் இருந்து பாதுகாப்பானவை, எவை பாதுகாப்பானவை அல்ல என்பது குறித்த உலகளாவிய கண்ணோட்டத்தை ஆராயுங்கள்.
🔗 AI பங்குச் சந்தையை கணிக்க முடியுமா?
சந்தை நகர்வுகளை முன்னறிவிக்கும் AI இன் திறனைச் சுற்றியுள்ள வரம்புகள், முன்னேற்றங்கள் மற்றும் கட்டுக்கதைகளை நெருக்கமாகப் பார்ப்பது.
🔗 மனித தலையீடு இல்லாமல் ஜெனரேட்டிவ் AI என்ன செய்ய முடியும்?
AI எங்கு சுயாதீனமாக செயல்பட முடியும், மனித மேற்பார்வை இன்னும் எங்கு அவசியம் என்பதைப் புரிந்து கொள்ளுங்கள்.