
AI Trends ஊழியர்களால்
வேலைவாய்ப்பில் AI இப்போது வேலை விவரங்கள் எழுதுவதற்கும், வேட்பாளர்களைத் திரையிடுவதற்கும், நேர்காணல்களைத் தானியக்கமாக்குவதற்கும் பரவலாகப் பயன்படுத்தப்படுகிறது, கவனமாக செயல்படுத்தப்படாவிட்டால் அது பரவலான பாகுபாடுகளுக்கு ஆளாக நேரிடும்.

அமெரிக்க சம வாய்ப்பு ஆணையத்தின் ஆணையர் கீத் சோண்டர்லிங்கின் செய்தி இது. AI உலக அரசாங்கம் கடந்த வாரம் வர்ஜீனியாவில் உள்ள அலெக்ஸாண்ட்ரியாவில் இந்த நிகழ்வு நேரடியாகவும் கிட்டத்தட்ட நடைபெற்றது. இனம், நிறம், மதம், பாலினம், தேசிய தோற்றம், வயது அல்லது இயலாமை ஆகியவற்றின் காரணமாக வேலை விண்ணப்பதாரர்களுக்கு எதிரான பாகுபாட்டைத் தடைசெய்யும் கூட்டாட்சி சட்டங்களை அமல்படுத்துவதற்கு சோண்டர்லிங் பொறுப்பு.
“எச்.ஆர் துறைகளில் AI முதன்மையாக மாறும் என்ற எண்ணம் இரண்டு ஆண்டுகளுக்கு முன்பு அறிவியல் புனைகதைகளுடன் நெருக்கமாக இருந்தது, ஆனால் தொற்றுநோய் முதலாளிகளால் AI பயன்படுத்தப்படும் வேகத்தை துரிதப்படுத்தியுள்ளது,” என்று அவர் கூறினார். “மெய்நிகர் ஆட்சேர்ப்பு இப்போது தங்குவதற்கு இங்கே உள்ளது.”
HR நிபுணர்களுக்கு இது ஒரு வேலையான நேரம். “மிகப்பெரிய பணிநீக்கம் பெரிய பணியமர்த்தலுக்கு வழிவகுக்கிறது, மேலும் AI நாம் இதுவரை பார்த்திராத ஒரு பாத்திரத்தை வகிக்கும்” என்று சோண்டர்லிங் கூறினார்.
செயற்கை நுண்ணறிவு பல ஆண்டுகளாக வேலையில் பயன்படுத்தப்படுகிறது – “இது ஒரே இரவில் நடக்கவில்லை.” – விண்ணப்பங்களைப் பற்றி விவாதித்தல், ஒரு வேட்பாளர் வேலையை ஏற்றுக்கொள்வாரா என்பதைக் கணித்தல், அவர் எந்த வகையான பணியாளராக இருப்பார் என்பதைக் கணித்தல் மற்றும் மேம்பாடு மற்றும் மறுபயிற்சிக்கான வாய்ப்புகளைக் கண்டறிதல் உள்ளிட்ட பணிகளுக்கு. “சுருக்கமாக, AI இப்போது HR மக்கள் ஒரு காலத்தில் எடுத்த அனைத்து முடிவுகளையும் எடுக்கிறது,” இது நல்லது அல்லது கெட்டது என்று அவர் வகைப்படுத்தவில்லை.
“கவனமாக வடிவமைக்கப்பட்டு சரியாகப் பயன்படுத்தப்பட்டால், AI ஆனது பணியிடத்தை மிகவும் சமமானதாக மாற்றும் திறனைக் கொண்டுள்ளது” என்று சோண்டர்லிங் கூறினார். “ஆனால் கவனக்குறைவாக செயல்படுத்தப்பட்டது, AI ஆனது ஒரு மனிதவள வல்லுநரால் இதுவரை நாம் பார்த்திராத அளவில் பாகுபாடு காட்டக்கூடும்.”
பணியமர்த்துவதற்குப் பயன்படுத்தப்படும் AI மாதிரிகளுக்கான பயிற்சி தரவுத்தொகுப்புகள் பன்முகத்தன்மையைப் பிரதிபலிக்க வேண்டும்
AI மாதிரிகள் பயிற்சி தரவை அடிப்படையாகக் கொண்டிருப்பதே இதற்குக் காரணம். நிறுவனத்தின் தற்போதைய பணியாளர்கள் பயிற்சிக்கான அடிப்படையாகப் பயன்படுத்தப்பட்டால், “இது தற்போதைய நிலையைப் பிரதிபலிக்கும். முதன்மையாக பாலினம் அல்லது இனம் என்றால், அது அதைப் பிரதிபலிக்கும்,” என்று அவர் கூறினார். மாறாக, இனம், இனம் அல்லது இயலாமை நிலை ஆகியவற்றின் அடிப்படையில் வேலைவாய்ப்பு சார்பு அபாயங்களைக் குறைக்க AI உதவும். “பணியிடத்தில் AI பாகுபாட்டை மேம்படுத்துவதை நான் பார்க்க விரும்புகிறேன்,” என்று அவர் கூறினார்.
அமேசான் 2014 இல் ஒரு பணியமர்த்தல் பயன்பாட்டை உருவாக்கத் தொடங்கியது மற்றும் காலப்போக்கில் அதன் பரிந்துரைகளில் பெண்களுக்கு எதிராக பாகுபாடு காட்டுவதைக் கண்டறிந்தது, ஏனெனில் AI மாடல் கடந்த 10 ஆண்டுகளாக நிறுவனத்தின் சொந்த பணியமர்த்தல் பதிவின் தரவுத்தொகுப்பில் பயிற்சியளிக்கப்பட்டது, இது பெரும்பாலும் ஆண்கள். அமேசான் டெவலப்பர்கள் அதை சரிசெய்ய முயன்றனர், ஆனால் இறுதியில் 2017 இல் கணினியை கைவிட்டனர்.
சமூக ஊடக நிறுவனம் அமெரிக்க தொழிலாளர்களுக்கு எதிராக பாரபட்சம் காட்டியது மற்றும் கூட்டாட்சி ஆட்சேர்ப்பு விதிகளை மீறியது என்று அமெரிக்க அரசாங்கத்தின் சிவில் உரிமைகோரல்களை தீர்க்க பேஸ்புக் சமீபத்தில் $14.25 மில்லியன் செலுத்த ஒப்புக்கொண்டது. ராய்ட்டர்ஸ். இந்த வழக்கு பேஸ்புக் அதன் PERM தொழிலாளர் சான்றிதழ் திட்டத்தை பயன்படுத்துவதை மையமாகக் கொண்டது. PERM திட்டத்தின் கீழ் தற்காலிக விசா வைத்திருப்பவர்களுக்கு ஒதுக்கப்பட்ட வேலைகளுக்கு அமெரிக்க தொழிலாளர்களை வேலைக்கு அமர்த்த பேஸ்புக் மறுத்ததை அரசாங்கம் கண்டறிந்தது.
“பணியமர்த்தல் குழுவில் இருந்து நபர்களைத் தவிர்ப்பது ஒரு மீறலாகும்” என்று சோண்டர்லிங் கூறினார். AI திட்டம் “அந்த வகுப்பினருக்கு வேலை வாய்ப்பைத் தடுக்கிறது, அதனால் அவர்கள் தங்கள் உரிமைகளைப் பயன்படுத்த முடியாது, அல்லது அது பாதுகாக்கப்பட்ட வகுப்பைக் குறைத்தால், அது எங்கள் வரம்பிற்கு உட்பட்டது” என்று அவர் கூறினார்.
இரண்டாம் உலகப் போருக்குப் பிறகு மிகவும் பொதுவானதாக மாறிய வேலைவாய்ப்பு மதிப்புரைகள், மனிதவள மேலாளர்களுக்கு பெரும் மதிப்பை வழங்கியுள்ளன, மேலும் AI இன் உதவியுடன், பணியமர்த்தல் சார்புகளைக் குறைக்கும் ஆற்றலைக் கொண்டுள்ளது. “அதே நேரத்தில், அவர்கள் பாகுபாடு குற்றச்சாட்டுகளுக்கு ஆளாகிறார்கள், எனவே முதலாளிகள் கவனமாக இருக்க வேண்டும் மற்றும் கைகளை விட்டு வெளியேற முடியாது,” சோண்டர்லிங் கூறினார். “தவறான தரவு முடிவெடுப்பதில் சார்புகளை அதிகரிக்கும். பாரபட்சமான விளைவுகளுக்கு எதிராக முதலாளிகள் விழிப்புடன் இருக்க வேண்டும்.”
இனம், பாலினம் மற்றும் பிற காரணிகளின் அடிப்படையில் சார்பு அபாயங்களுக்கான தரவைத் திரையிடும் வழங்குநர்களிடமிருந்து தீர்வுகளை ஆய்வு செய்ய அவர் பரிந்துரைத்தார்.
ஒரு உதாரணம் இருந்து HireVue யூட்டாவின் சவுத் ஜோர்டான், யூட்டாவில் இருந்து ஒரு அறிக்கையின்படி, யு.எஸ் சம வாய்ப்பு ஆணையத்தின் சீரான வழிகாட்டுதல்களின் அடிப்படையில் ஒரு வேலைவாய்ப்பு தளத்தை உருவாக்கியது. அனைத்து வேலை.
AI நெறிமுறைக் கொள்கைகள் பற்றிய ஒரு இடுகை அதன் இணையதளத்தில் ஒரு பகுதியாகக் கூறுகிறது: “HireVue எங்கள் தயாரிப்புகளில் AI தொழில்நுட்பத்தைப் பயன்படுத்துவதால், எந்தவொரு குழு அல்லது தனிநபருக்கு எதிராக சார்பு அறிமுகம் அல்லது பரப்புதலைத் தடுக்க நாங்கள் தீவிரமாக வேலை செய்கிறோம். எங்கள் பணியில் நாங்கள் பயன்படுத்தும் தரவுத் தொகுப்புகளை கவனமாக மதிப்பாய்வு செய்வோம், மேலும் அவை முடிந்தவரை துல்லியமாகவும் வேறுபட்டதாகவும் இருப்பதை உறுதிசெய்வோம். எங்கள் அமைப்புகள் சேவை செய்யும் மக்களை சிறப்பாகப் பிரதிநிதித்துவப்படுத்தும் முன்னோக்குகள்.”
மேலும், “எங்கள் தரவு விஞ்ஞானிகள் மற்றும் IO உளவியலாளர்கள் HireVue இன் மதிப்பீட்டு வழிமுறைகளை உருவாக்குகின்றனர் நிலை.”

AI மாடல்களைப் பயிற்றுவிக்கப் பயன்படுத்தப்படும் தரவுத்தொகுப்புகளில் உள்ள சார்பு சிக்கல் வேலைவாய்ப்புடன் மட்டுப்படுத்தப்படவில்லை. AiCure இன் CEO டாக்டர். Ed Ikeguchi, லைஃப் சயின்ஸ் துறையில் பணிபுரியும் AI பகுப்பாய்வு நிறுவனமான சமீபத்திய அறிக்கையில் ஹெல்த்கேர்ஐடிநியூஸ்“செயற்கை நுண்ணறிவு அது வழங்கும் தரவைப் போலவே வலுவானது, மேலும் அந்த தரவு முதுகெலும்பின் நம்பகத்தன்மை சமீபகாலமாக கேள்விக்குள்ளாக்கப்படுகிறது. இன்றைய AI டெவலப்பர்களுக்கு புதிய கருவிகளைப் பயிற்றுவிக்கவும் சரிபார்க்கவும் பெரிய மற்றும் மாறுபட்ட தரவுத்தொகுப்புகளுக்கான அணுகல் இல்லை.
அவர் மேலும் கூறியதாவது: “அவர்கள் பெரும்பாலும் திறந்த மூல தரவுத்தொகுப்புகளைப் பயன்படுத்த வேண்டும், ஆனால் இவர்களில் பலர் தன்னார்வ கணினி புரோகிராமர்களைப் பயன்படுத்தி பயிற்சி பெற்றவர்கள், இது பெரும்பாலும் வெள்ளை மக்கள்தொகையாகும். ஏனெனில் அல்காரிதங்கள் பெரும்பாலும் வரையறுக்கப்பட்ட பன்முகத்தன்மை கொண்ட ஒற்றை தரவு மாதிரிகளில் பயிற்சியளிக்கப்படுகின்றன, பல்வேறு இனங்கள், பாலினங்கள், வயது மற்றும் பலவற்றின் பெரிய மக்களுக்கு நிஜ உலகில் பயன்படுத்தப்படும் போது.
மேலும், “எல்லா அல்காரிதங்களுக்கும் ஆளுகை மற்றும் சக மதிப்பாய்வு கூறுகள் இருக்க வேண்டும், ஏனென்றால் மிகவும் உறுதியான மற்றும் சோதிக்கப்பட்ட அல்காரிதம் கூட எதிர்பாராத முடிவுகளைக் கொண்டிருக்கும். ஒரு அல்காரிதம் ஒருபோதும் கற்றுக்கொள்ளாது.”—இது தொடர்ந்து மேம்படுத்தப்பட்டு, மேலும் மேம்படுத்த கூடுதல் தரவுகளுடன் வழங்கப்பட வேண்டும்.”
மேலும், “ஒரு தொழிலாக, AI முடிவுகளில் நாம் அதிக சந்தேகம் கொள்ள வேண்டும் மற்றும் தொழில்துறையில் வெளிப்படைத்தன்மையை ஊக்குவிக்க வேண்டும். ‘அல்காரிதம் எவ்வாறு பயிற்சியளிக்கப்பட்டது? எந்த அடிப்படையில் இந்த முடிவுக்கு வந்தது?’ போன்ற அடிப்படை கேள்விகளுக்கு நிறுவனங்கள் எளிதாக பதிலளிக்க வேண்டும்.
கட்டுரைகள் மற்றும் ஆதாரத் தகவல்களைப் படிக்கவும் AI உலக அரசாங்கம்fரம் ராய்ட்டர்ஸ் மற்றும் இருந்து ஹெல்த்கேர்ஐடிநியூஸ்.










Leave a Reply