நான் Smartsheet இல் சேர்ந்தபோது, வணிகம் முழுவதும் AI உண்மையில் எங்கு செயல்படுகிறது என்பதைப் புரிந்துகொள்வதே எனது முதல் முன்னுரிமைகளில் ஒன்றாகும்.
விஷயங்கள் எவ்வளவு வேகமாக நகர்கின்றன என்பதற்கான நேர்மையான பிரதிபலிப்பைக் காட்டிலும் வேண்டுமென்றே உத்தி குறைவாகவே நாங்கள் கண்டறிந்தோம்: பணிப்பாய்வுகளில் உட்பொதிக்கப்பட்ட AI கருவிகள், சில விற்பனையாளர்-அங்கீகரிக்கப்பட்டவை, சில இல்லை, புத்திசாலிகளால் ஏற்றுக்கொள்ளப்பட்ட உண்மையான பிரச்சனைகளை அரசியலை விட வேகமாக தீர்க்கும்.
தலைமை தகவல் மற்றும் பாதுகாப்பு அதிகாரி, ஸ்மார்ட்ஷீட்.
இந்த வழங்குநர்களில் சிலரிடம் நான் திரும்பிச் சென்றபோது, நாங்கள் உண்மையில் எதைக் கையாளுகிறோம்-மாடல் எந்தத் தரவை அணுகியது, என்ன நடவடிக்கைகள் எடுக்கப்பட்டது என்பதைப் புரிந்துகொள்ள-பதில்கள் மோசமாக இருந்தன. தணிக்கை உள்கட்டமைப்பு அங்கு இல்லை.
அவர்கள் என்ன செய்தார்கள் என்பதற்கான எந்த பதிவும் இல்லாமல் ஏற்கனவே நம் சூழலில் பதிக்கப்பட்ட கருவிகளின் கலவையானது எனது சிந்தனையை கூர்மைப்படுத்தியது. ஆபத்து கருவிகள் அல்ல; அது கண்ணுக்கு தெரியாததாக இருந்தது.
பெரும்பாலான பாதுகாப்புத் தலைவர்களின் உள்ளுணர்வு, “அதை எப்படி கட்டுப்படுத்துவது?” ஆனால் கட்டுப்பாடு கட்டுப்பாட்டை உள்ளடக்கியது, மேலும் நம்மில் பலர் கற்றுக்கொண்டது போல, கட்டுப்பாடு நடத்தையை மாற்றாது. நீங்கள் அதை நிலத்தடியில் மட்டுமே ஓட்டுகிறீர்கள், அங்கு உங்களுக்கு குறைவான தெரிவுநிலை உள்ளது. உண்மையில் முக்கியமான கேள்வி எளிமையானது, ஆனால் அடைய கடினமாக உள்ளது: “நாம் அதை கண்காணிக்க முடியுமா?”
இந்தக் கேள்விக்கு பதிலளிக்க நான் ஏற்றுக்கொண்ட மிகவும் பயனுள்ள மாதிரி: ஒவ்வொரு AI முகவரையும் ஒரு புதிய வகை “பணியாளர்” என்று கருதுங்கள். ஒவ்வொருவருக்கும் வரையறுக்கப்பட்ட பங்கு, அதிகார மண்டலம் மற்றும் பொறுப்புச் சங்கிலி இருக்க வேண்டும்.
முதல் சில வாரங்களில் மேற்பார்வையின்றி ஒரு புதிய பணியாளரை முக்கியமான முடிவுகளை எடுக்க நீங்கள் அனுமதிக்க மாட்டீர்கள். உங்கள் நிறுவனத்தின் பணிப்பாய்வுகளில் செயல்படும் AI அமைப்புக்கும் இதே தர்க்கம் பொருந்தும், மேலும் இந்த கண்காணிப்பை உண்மையாக்குவதுதான் கண்டறியும் திறன்.
உண்மையான நேரத்தில் பின்புறக் கண்ணாடியில் இருந்து
“தணிக்கை” என்பது என்ன நடந்தது என்பதை அவ்வப்போது மதிப்பாய்வு செய்வதைக் குறிக்கும் ஒரு காலம் இருந்தது. டிஜிட்டல் மாற்றம் மூலம் அது மாறிவிட்டது. தொழில்நுட்பம் சார்ந்த செயல்கள் மிகவும் பொதுவானதாகிவிட்டதால், பதிவுசெய்தல் மற்றும் அவதானிக்கும் தளங்களும் உள்ளன.
தணிக்கையானது, நிகழ்நேரத்தில் தரவுப் பாய்வதால், ஒழுங்கின்மைகள் நிகழும்போது அவற்றைக் கொடியிடும் பாதுகாப்பின் ஒரு அடுக்கை வழங்குகிறது. இன்று, தணிக்கை என்பது பிரேத பரிசோதனை அல்ல, ஆனால் நிகழ்நேர செயல்பாட்டு ஒழுக்கம்.
ஏஜென்ட் AI இன் எழுச்சியுடன், அதாவது, ஒரு ஏஜென்ட் வினவிய தரவு மூலங்களைப் பதிவுசெய்து, ஒப்புதலுக்காக அதிகரித்ததற்கு எதிராக அவர்கள் தன்னியக்கமாக என்ன நடவடிக்கைகள் எடுத்துள்ளனர், மேலும் அந்த ஒப்புதல் சங்கிலியில் நிகழ்நேரத்தில் அமர்ந்திருப்பவர்கள், உண்மைக்குப் பிறகு மறுகட்டமைக்கப்படவில்லை.
போர்டு மட்டத்தில் இது ஏன் முக்கியமானது: AI-உதவி செயல்முறை மோசமான விளைவை உருவாக்கும் போது – தவறாகக் கொடியிடப்பட்ட ஆபத்து, மேலாளர் ஒப்புதல் இல்லாமல் தூண்டப்பட்ட வள ஒதுக்கீடு அல்லது யாரேனும் கையொப்பமிடுவதற்கு முன் அனுப்பப்பட்ட நிலைப் புதுப்பித்தல் போன்றவை – நிர்வாகம், நடுவர் அல்லது கட்டுப்பாட்டாளரிடமிருந்து நீங்கள் எதிர்கொள்ளும் முதல் கேள்வி, “யார் இதை ஏற்றுக்கொண்டது, எப்படி, எப்போது, ஏன்?”
இந்தக் கேள்விகளுக்கு உங்களால் பதிலளிக்க முடியாவிட்டால், செயல்முறையின் தோல்விக்கு மேலதிகமாக நிர்வாக நெருக்கடியையும் நீங்கள் எதிர்கொள்கிறீர்கள்.
தணிக்கை ஒரு அடித்தளமாக, தேர்வுப்பெட்டி அல்ல
இதை நிவர்த்தி செய்ய, பாதுகாப்புத் தலைவர்கள் தொடக்கத்திலிருந்தே அவர்களின் AI உத்தியில் தணிக்கையை உருவாக்க வேண்டும். ஒரு இணக்கப் பயிற்சியாக அல்ல, ஆனால் ஏஜென்டிக் AIஐ ஆளுமைப்படுத்தக்கூடிய அடிப்படை அடுக்கு.
எந்தவொரு AI திறனையும் மதிப்பீடு செய்யும் போது நான் தேடுவது, உள்நாட்டில் கட்டப்பட்டதா அல்லது விற்பனையாளரிடமிருந்து பெறப்பட்டதா என்பது கண்டுபிடிக்கக்கூடிய சங்கிலி: எந்தத் தரவு பரிந்துரையைத் தெரிவித்தது, ஒரு நடவடிக்கை எடுக்கப்படுவதற்கு முன் மனித ஒப்புதல் தேவையா, யாரேனும் இருந்தால், அதை யார் மதிப்பாய்வு செய்தார்கள். ஒரு விற்பனையாளரால் அந்தச் சங்கிலியை எனக்குக் காட்ட முடியாவிட்டால், முடிவுகள் எவ்வளவு சுவாரஸ்யமாக இருந்தாலும், அந்தத் திறன் நிறுவனத்திற்குத் தயாராக இல்லை.
இது அணிகளை மெதுவாக்குவது பற்றியது அல்ல. இது AI முடிவுகளில் செயல்படும் நம்பிக்கையை மக்களுக்கு வழங்குவதாகும். AI பரிந்துரை எவ்வாறு உருவாக்கப்பட்டது என்பதைப் பணியாளர்கள் பார்த்து, போதுமான மேற்பார்வை இருப்பதை அறிந்தால், அவர்கள் தங்கள் சொந்த முடிவுகளை எடுக்கத் தொடங்கலாம்.
இது இணக்க முடிவு அல்ல; இது ஒரு உற்பத்தி விளைவு. தணிக்கை என்பது ஒரு தேர்வுப்பெட்டியாக மாறுகிறது மற்றும் மனித பொறுப்புணர்வை பராமரிக்கும் போது AI ஐ நம்பிக்கையுடன் நீட்டிக்க குழுக்களை செயல்படுத்தும் பொறிமுறையாக மாறுகிறது.
உங்கள் புதிய AI ஊழியர்கள்
ஒரு பணியாளராக AI இன் அந்த மாதிரிக்குத் திரும்பு: ஃப்ரேமிங் நீங்கள் கேட்கும் கேள்விகளை மாற்றுகிறது. அதற்கு பதிலாக “எப்படி தீங்கு விளைவிப்பதை AI நிறுத்துவது?” கேள்வி என்னவென்றால், “திறமையான குழு உறுப்பினரை நாம் நம்பும் விதத்தில் இந்த AI இன் தீர்ப்பை நம்புவதற்கு நாம் என்ன தெரிந்து கொள்ள வேண்டும்?”
பதில் எப்பொழுதும் அதே விஷயங்களுக்குத் திரும்பும்: தெளிவான உரிமை, வரையறுக்கப்பட்ட முடிவெடுக்கும் உரிமைகள், எடுக்கப்பட்ட செயல்களின் பதிவு மற்றும் மனித மேலெழுதல் பொறிமுறை. இவை புதிய பாதுகாப்பு கருத்துக்கள் அல்ல. அவை புதிய “பணியாளர்” வகைக்கு மட்டுமே பயன்படுத்தப்படுகின்றன.
பாதுகாப்புத் தலைவர்களாகிய எங்களால் ஒவ்வொரு AI அபாயத்தையும் ஒரே இரவில் தீர்க்க முடியாது, ஆனால் உயர்மட்டக் கொள்கைகளுக்கு அப்பால் செயல்பாட்டு யதார்த்தத்திற்கு நகரும் அடித்தளத்தை எங்களால் அமைக்க முடியும்:
1. உங்கள் கணினிகளில் OAuth டோக்கன்கள் மற்றும் API விசைகள் மூலம் வெளிப்படும் ஒருங்கிணைப்புகள் உட்பட, AI உண்மையில் செயல்படும் வரைபடம், ஏனெனில் நீங்கள் பார்க்க முடியாததை உங்களால் நிர்வகிக்க முடியாது.
2. எந்தெந்த முடிவுகளுக்கு மனித அங்கீகாரம் தேவை மற்றும் எது தேவையில்லை என்பது குறித்து வெளிப்படையாக இருங்கள், மேலும் தொழில்நுட்பம் மற்றும் அதன் நிறுவன தாக்கம் உருவாகும்போது ஒவ்வொரு ஆறு மாதங்களுக்கும் இந்த எல்லைகளை மதிப்பாய்வு செய்வதில் உறுதியளிக்கவும். இன்று குறைந்த அபாயம் இருப்பதாகத் தோன்றுவது, ஒரு முகவர் அதை அளவில் இயக்கும் போது மிகவும் வித்தியாசமாகத் தோன்றலாம்.
3. முழு AI தணிக்கை மற்றும் கண்டறியக்கூடிய நிறுவனங்களில் முதலீடு செய்வதன் மூலம் உங்கள் சப்ளையர்களை பொறுப்புக்கூற வைத்திருங்கள், மேலும் இந்த கட்டுப்பாடுகளை உங்களின் தற்போதைய கண்காணிப்பு தளங்களுடன் ஒருங்கிணைக்கவும்.
AI கண்டறியக்கூடியதாகவும், தெளிவாகச் சொந்தமானதாகவும், தணிக்கை செய்யக்கூடியதாகவும் இருக்கும் போது, நிர்வாகம் ஒரு தடையாக இருந்து, போட்டி நன்மையாக மாறும். இதைப் புரிந்துகொள்ளும் நிறுவனங்கள் வேகமாக நகரும், ஏனெனில் AI முடிவுகள் மற்றும் தேவைப்படும்போது அதைச் சரிசெய்வதற்கான கருவிகள் ஆகியவற்றில் செயல்படும் நம்பிக்கை அவர்களின் மக்களுக்கு உள்ளது. பழைய பழமொழி சொல்வது போல், “நம்பிக்கை ஆனால் சரிபார்க்கவும்”.
தரநிலை நிலப்பரப்பு பிடிக்கத் தொடங்குகிறது. NIST இன் AI இடர் மேலாண்மை கட்டமைப்பு, அதிக ஆபத்துள்ள AI அமைப்புகளுக்கான EU AI சட்டத்தின் தேவைகள் மற்றும் வளர்ந்து வரும் முகவர் அடையாள நெறிமுறைகள் அனைத்தும் ஒரே திசையில் உள்ளன: தணிக்கை ஒரு முக்கிய எதிர்பார்ப்பாக மாறும், வேறுபடுத்தி அல்ல. இப்போது அதைக் கட்டமைக்கும் பாதுகாப்புத் தலைவர்கள் இணக்கமாக மட்டும் இருக்க மாட்டார்கள், அவர்கள் முன்னால் இருப்பார்கள்.
நீங்கள் ஏற்கனவே கேட்கவில்லை என்றால், நீங்கள் கேட்க வேண்டிய கேள்விக்கு இது எங்களை மீண்டும் கொண்டு வருகிறது: உங்களால் பார்க்க முடியுமா?
சிறந்த மென்பொருள் சொத்து மேலாண்மை (SAM) கருவிகளை நாங்கள் தரவரிசைப்படுத்தியுள்ளோம்.
இந்த கட்டுரை ஒரு பகுதியாக தயாரிக்கப்பட்டது டெக்ராடார் ப்ரோ நுண்ணறிவுஇன்று தொழில்நுட்ப துறையில் சிறந்த மற்றும் பிரகாசமான மனதை வெளிப்படுத்த எங்கள் சேனல்.
இங்கே வெளிப்படுத்தப்பட்ட கருத்துக்கள் ஆசிரியரின் கருத்துகள் மற்றும் TechRadarPro அல்லது Future plc இன் கருத்துக்கள் அல்ல. நீங்கள் பங்களிக்க ஆர்வமாக இருந்தால், இங்கே மேலும் அறிக: https://www.techradar.com/pro/perspectives-how-to-submit









Leave a Reply