
ஜான் பி. டெஸ்மண்ட், AI போக்குகள் ஆசிரியர்
அமெரிக்க இராணுவ AI ஒருங்கிணைப்பு மையத்தின் தரவு விஞ்ஞானி ஐசக் ஃபேபரின் கூற்றுப்படி, கார்னகி மெலன் பல்கலைக்கழகத்தால் வரையறுக்கப்பட்ட AI அடுக்கு அமெரிக்க இராணுவம் அதன் AI இயங்குதள மேம்பாட்டு முயற்சிகளுக்கு எடுக்கும் அணுகுமுறைக்கு அடிப்படையாகும். AI உலக அரசாங்கம் கடந்த வாரம் வர்ஜீனியாவின் அலெக்ஸாண்ட்ரியாவில் நேரில் மற்றும் கிட்டத்தட்ட நடைபெற்றது.

“டிஜிட்டல் நவீனமயமாக்கல் மூலம் பாரம்பரிய அமைப்புகளிலிருந்து இராணுவத்தை நகர்த்த விரும்பினால், நாங்கள் கண்டறிந்த மிகப்பெரிய பிரச்சனைகளில் ஒன்று பயன்பாடுகளுக்கு இடையிலான வேறுபாடுகளை அகற்றுவதில் உள்ள சிரமம்” என்று அவர் கூறினார். “டிஜிட்டல் மாற்றத்தின் மிக முக்கியமான பகுதி நடுத்தர அடுக்கு ஆகும், இது கிளவுட் அல்லது உள்ளூர் கணினியில் இருப்பதை எளிதாக்குகிறது.” ஒரு புதிய ஸ்மார்ட்போன் தொடர்புகள் மற்றும் பயனர் வரலாற்றை எடுத்துச் செல்லும் அதே எளிதாக உங்கள் மென்பொருள் தளத்தை மற்றொரு தளத்திற்கு நகர்த்த முடியும் என்பதே விருப்பம்.
நெறிமுறைகள் AI பயன்பாட்டு அடுக்கின் அனைத்து அடுக்குகளையும் கடக்கிறது, இது திட்டமிடல் கட்டத்தை மேலே வைக்கிறது, அதைத் தொடர்ந்து முடிவு ஆதரவு, மாடலிங், இயந்திர கற்றல், பாரிய தரவு மேலாண்மை மற்றும் சாதன அடுக்கு அல்லது தளம் கீழே உள்ளது.
“அடுக்கை ஒரு முக்கிய உள்கட்டமைப்பாகக் கருதப்பட வேண்டும் என்றும், பயன்பாடுகள் பயன்படுத்தப்படுவதற்கான ஒரு வழியாகவும், எங்கள் அணுகுமுறையில் தனிமைப்படுத்தப்படாமல் இருக்க வேண்டும் என்று நான் பரிந்துரைக்கிறேன்,” என்று அவர் கூறினார். “உலகளாவிய ரீதியில் விநியோகிக்கப்பட்ட பணியாளர்களுக்கான வளர்ச்சி சூழலை நாம் உருவாக்க வேண்டும்.”
இராணுவம் ஒரு பொதுவான இயக்க சூழல் மென்பொருள் (கோஸ்) இயங்குதளத்தில் வேலை செய்கிறது, இது 2017 இல் முதன்முதலில் அறிவிக்கப்பட்டது, இது DOD வேலைக்கான வடிவமைப்பு, அளவிடக்கூடியது, சுறுசுறுப்பானது, மட்டு, சிறிய மற்றும் திறந்தது. “இது பரந்த அளவிலான AI திட்டங்களுக்கு ஏற்றது” என்று ஃபேபர் கூறினார். முயற்சியை நிறைவேற்றுவதற்கு, “பேய் விவரங்களில் உள்ளது,” என்று அவர் கூறினார்.
இராணுவம் CMU மற்றும் தனியார் நிறுவனங்களுடன் ஒரு முன்மாதிரி மேடையில் வேலை செய்கிறது பார்க்கலாம் AI மேம்பாட்டு சேவைகளை வழங்கும் Coraopolis, Pa. பொருட்களை அலமாரியில் இருந்து வாங்குவதை விட தனியார் தொழில்துறையுடன் ஒத்துழைக்கவும் ஒருங்கிணைக்கவும் விரும்புவதாக ஃபேபர் கூறினார். “அதில் உள்ள சிக்கல் என்னவென்றால், அந்த ஒற்றை விற்பனையாளர் வழங்கும் மதிப்பில் நீங்கள் சிக்கிக்கொண்டீர்கள், இது பொதுவாக DOD நெட்வொர்க்குகளின் சவால்களுக்காக வடிவமைக்கப்படவில்லை,” என்று அவர் கூறினார்.
AI இல் பல தொழில்நுட்ப குழுக்களுக்கு இராணுவம் பயிற்சி அளித்து வருகிறது
இராணுவம் பல குழுக்களில் AI பணியாளர் மேம்பாட்டு முயற்சிகளில் ஈடுபட்டுள்ளது, இதில் அடங்கும்: தலைமைத்துவம், மேம்பட்ட பட்டம் பெற்ற வல்லுநர்கள்; தொழில்நுட்ப ஊழியர்கள், சான்றிதழ் பெற பயிற்சி பெற்றவர்கள்; மற்றும் AI பயனர்கள்.
இராணுவ தொழில்நுட்பக் குழுக்கள் பல்வேறு ஆர்வமுள்ள பகுதிகளைக் கொண்டுள்ளன: பொது நோக்கத்திற்கான மென்பொருள் மேம்பாடு, செயல்பாட்டு தரவு அறிவியல், பகுப்பாய்வுகளை உள்ளடக்கிய செயலாக்கம் மற்றும் கணினி பார்வை அமைப்பை உருவாக்குவதற்கு ஒரு பெரிய குழு போன்ற இயந்திர கற்றல் செயல்பாட்டுக் குழு. “மக்கள் பணியாளர்கள் மூலம் நகரும் போது, அவர்களுக்கு ஒத்துழைக்க, உருவாக்க மற்றும் பகிர்ந்து கொள்ள ஒரு இடம் தேவை,” என்று ஃபேபர் கூறினார்.
திட்ட வகைகளில் நோயறிதல் அடங்கும், இது வரலாற்று, முன்கணிப்பு மற்றும் பரிந்துரைக்கப்பட்ட தரவு ஸ்ட்ரீம்களை ஒருங்கிணைக்கக்கூடும், இது ஒரு முன்னறிவிப்பின் அடிப்படையில் ஒரு செயலை பரிந்துரைக்கிறது. “தொலைதூரத்தில் AI உள்ளது; நீங்கள் அதைத் தொடங்க வேண்டாம்,” என்று ஃபேபர் கூறினார். டெவலப்பர் மூன்று சிக்கல்களைத் தீர்க்க வேண்டும்: டேட்டா இன்ஜினியரிங், AI டெவலப்மென்ட் பிளாட்ஃபார்ம், அதை அவர் “பச்சை குமிழி” என்று அழைத்தார், மற்றும் செயல்படுத்தும் தளம், அதை அவர் “சிவப்பு குமிழி” என்று அழைத்தார்.
“அவை பரஸ்பரம் பிரத்தியேகமானவை மற்றும் அவை அனைத்தும் ஒன்றோடொன்று இணைக்கப்பட்டுள்ளன. அந்த வெவ்வேறு நபர்களின் குழுக்கள் நிரல் ரீதியாக ஒருங்கிணைக்க வேண்டும். பொதுவாக, ஒரு நல்ல திட்டக் குழுவில் அந்த குமிழிகள் ஒவ்வொன்றிலிருந்தும் மக்கள் இருப்பார்கள்,” என்று அவர் கூறினார். “நீங்கள் இன்னும் அதைச் செய்யவில்லை என்றால், பச்சை குமிழி சிக்கலைத் தீர்க்க முயற்சிக்காதீர்கள். உங்களுக்கு செயல்பாட்டுத் தேவை இருக்கும் வரை AI ஐப் பின்தொடர்வதில் அர்த்தமில்லை.”
எந்தக் குழுவை அடைவதற்கும் பயிற்சியளிப்பதற்கும் கடினமானது என்று ஒரு பங்கேற்பாளரிடம் கேட்டதற்கு, ஃபேபர் தயக்கமின்றி கூறினார், “அடைவது கடினமானது நிர்வாகிகள். அவர்கள் AI சுற்றுச்சூழல் வழங்கும் மதிப்பைக் கற்றுக்கொள்ள வேண்டும். அந்த மதிப்பை எவ்வாறு தொடர்புகொள்வது என்பது மிகப்பெரிய சவால்,” என்று அவர் கூறினார்.
குழுவானது AI பயன்பாட்டு நிகழ்வுகளைப் பற்றி அதிக சாத்தியக்கூறுடன் விவாதிக்கிறது
வளர்ந்து வரும் AI இன் அடித்தளங்கள் பற்றிய குழுவில், சந்தை ஆராய்ச்சி நிறுவனமான IDCக்கான குளோபல் ஸ்மார்ட் சிட்டிஸ் ஸ்ட்ராடஜீஸ் திட்ட இயக்குநர், மதிப்பீட்டாளர் கர்ட் சவோய், எந்த வளர்ந்து வரும் AI பயன்பாட்டு வழக்குக்கு அதிக திறன் உள்ளது என்று கேட்டார்.
அமெரிக்க விமானப்படை அறிவியல் ஆராய்ச்சி அலுவலகத்தின் தன்னாட்சி தொழில்நுட்ப ஆலோசகர் ஜீன்-சார்லஸ் லெட் கூறினார்: “பயன்பாடு மற்றும் வள திட்டமிடலுக்கான விளிம்பில் முடிவெடுக்கும் நன்மைகள், விமானிகள் மற்றும் ஆபரேட்டர்கள் மற்றும் பின்-இறுதி முடிவுகள் ஆகியவற்றை நான் சுட்டிக்காட்டுவேன்.”

தொழிலாளர் துறைக்கான வளர்ந்து வரும் தொழில்நுட்பத்தின் தலைவரான கிறிஸ்டா கின்னார்ட், “இயற்கை மொழி செயலாக்கம் என்பது தொழிலாளர் துறைக்குள் AI இன் கதவுகளைத் திறக்க ஒரு வாய்ப்பாகும்” என்று அவர் கூறினார். “இறுதியில், நாங்கள் மக்கள், திட்டங்கள் மற்றும் நிறுவனங்கள் பற்றிய தரவுகளைக் கையாளுகிறோம்.”
AIஐச் செயல்படுத்தும் போது பேனலிஸ்டுகள் என்ன பெரிய அபாயங்கள் மற்றும் ஆபத்துகளைப் பார்க்கிறார்கள் என்று Savoie கேட்டார்.
பொது சேவைகள் நிர்வாகத்திற்கான ஃபெடரல் AI அமலாக்கங்களின் (GSA) இயக்குனர் அனில் சௌத்ரி, பாரம்பரிய மென்பொருள் மேம்பாட்டைப் பயன்படுத்தும் ஒரு பொதுவான IT நிறுவனத்தில், டெவலப்பரின் முடிவின் தாக்கம் இவ்வளவு தூரம் மட்டுமே செல்லும் என்று கூறினார். AI உடன், “ஒட்டுமொத்த வகுப்பினர், அங்கத்தினர்கள் மற்றும் பங்குதாரர்கள் மீதான தாக்கத்தை நீங்கள் கருத்தில் கொள்ள வேண்டும். அல்காரிதம்களில் ஒரு எளிய மாற்றத்தின் மூலம், மில்லியன் கணக்கான மக்களுக்கு நன்மைகளை தாமதப்படுத்தலாம் அல்லது அளவில் தவறான அனுமானங்களை செய்யலாம். இது மிகப்பெரிய ஆபத்து” என்று அவர் கூறினார்.
அவர் தனது கூட்டாளர்களை “சுழலில் உள்ளவர்கள் மற்றும் சுழலில் உள்ளவர்கள்” இருக்குமாறு கேட்டுக்கொள்கிறேன் என்றார்.
கின்னார்ட் இதை உறுதிப்படுத்தினார், “மக்களை சுழலில் இருந்து வெளியேற்றும் எண்ணம் எங்களுக்கு இல்லை. இது உண்மையில் சிறந்த முடிவுகளை எடுக்க மக்களுக்கு அதிகாரம் அளிப்பதாகும்.”
AI மாதிரிகள் செயல்படுத்தப்பட்ட பிறகு அவற்றைக் கண்காணிப்பதன் முக்கியத்துவத்தை அவர் வலியுறுத்தினார். “அடிப்படை தரவு மாறும்போது வடிவங்கள் மாறுபடும்,” என்று அவர் கூறினார். “எனவே, பணியைச் செய்வதற்கு மட்டுமல்லாமல், AI மாதிரி என்ன செய்கிறது என்பது ஏற்றுக்கொள்ளத்தக்கதா என்பதை மதிப்பிடுவதற்கும் உங்களுக்கு விமர்சன சிந்தனையின் நிலை தேவை.”
அவர் மேலும் கூறியதாவது: “பொறுப்பான AI ஐப் பயன்படுத்துவதை உறுதி செய்வதற்காக, அரசு முழுவதும் பயன்பாட்டு வழக்குகள் மற்றும் கூட்டாண்மைகளை நாங்கள் உருவாக்கியுள்ளோம். நாங்கள் மனிதர்களை அல்காரிதங்களுடன் மாற்ற மாட்டோம்.”
விமானப்படையின் லீட் கூறியது, “தரவு இல்லாத சந்தர்ப்பங்களை நாங்கள் அடிக்கடி பயன்படுத்துகிறோம். 50 ஆண்டுகால போர்க்காலத் தரவை எங்களால் ஆராய முடியாது, எனவே உருவகப்படுத்துதலைப் பயன்படுத்துகிறோம். உங்களுக்கு ‘உண்மையான இடைவெளியில் உருவகப்படுத்துதல்’ உள்ளது என்ற அல்காரிதத்தை கற்பிப்பதில் ஆபத்து உள்ளது, இது உண்மையான ஆபத்து.” அல்காரிதம்கள் நிஜ உலகத்திற்கு எவ்வாறு மேப் செய்யும் என்று உங்களுக்குத் தெரியவில்லை.”
AI அமைப்புகளுக்கான சோதனை உத்தியின் முக்கியத்துவத்தை சவுத்ரி வலியுறுத்தினார். “ஒரு கருவியைக் காதலித்து, உடற்பயிற்சியின் நோக்கத்தை மறந்துவிடும்” டெவலப்பர்களைப் பற்றி அவர் எச்சரித்தார். சுயாதீன சரிபார்ப்பு மற்றும் சரிபார்ப்பு உத்தியில் மேம்பாட்டு மேலாளரை வடிவமைக்க அவர் பரிந்துரைத்தார். “உங்கள் சோதனை, அங்குதான் நீங்கள் ஒரு தலைவராக உங்கள் ஆற்றலைக் குவிக்க வேண்டும். அந்த முதலீடு வெற்றியடைந்ததா என்பதை அவர்கள் எப்படி நியாயப்படுத்துவார்கள் என்பதைப் பற்றி, ஆதாரங்களைச் செய்வதற்கு முன், தலைவரின் மனதில் ஒரு யோசனை தேவை.”
விமானப்படை லெட் விளக்கத்தின் முக்கியத்துவம் பற்றி பேசினார். “நான் ஒரு தொழில்நுட்பவியலாளர். நான் சட்டங்களை உருவாக்கவில்லை. ஒரு மனிதன் தொடர்பு கொள்ளக்கூடிய வகையில் AI செயல்பாட்டின் திறன் முக்கியமானது. AI ஆனது சரிபார்ப்பதற்கு எந்த வழியும் இல்லை என்ற முடிவுக்கு AI கொண்டு வருவதை விட, AI என்பது நாம் உரையாடும் ஒரு கூட்டாளியாகும்,” என்று அவர் கூறினார்.
இல் மேலும் அறிக AI உலக அரசாங்கம்.






Leave a Reply