AI எவ்வாறு முன்னுதாரணத்தை மிகவும் தாக்கத்தை ஏற்படுத்தும் வகையில் மாற்றுகிறது என்பது பற்றிய ஒரு கட்டுரை மெட்ரோபோலிஸ்” என்பது ஃபிரிட்ஸ் லாங்கால் 1927 இல் வெளியிடப்பட்ட ஒரு எதிர்கால அறிவியல் புனைகதை திரைப்படமாகும். இந்தத் திரைப்படம் தொழில்மயமாக்கலின் தாக்கம் மற்றும் தொழில்நுட்பம் மற்றும் ஆட்டோமேஷனில் ஏற்படும் பிழை மனிதர்களை எவ்வாறு பாதிக்கலாம் என்பதைப் பற்றிய யோசனையைப் பற்றியது மற்றும் வர்க்கங்களுக்கு இடையே உள்ள வேறுபாடுகளின் தாக்கத்தை எடுத்துக்காட்டுகிறது – உள்ளவர் மற்றும் இல்லாதவர், பணக்காரர் மற்றும் ஏழை. மருத்துவம், அறிவியல், பொறியியல் என பல துறைகளில் கடந்த நூற்றாண்டில் மனிதகுலம் அபரிமிதமாக முன்னேறியுள்ளது. ஏற்கனவே ஒரு மாபெரும் பாய்ச்சலை நிகழ்த்தி, தொடர்ந்து தாக்கத்தை ஏற்படுத்தி வரும் ஒரு அம்சம் செயற்கை நுண்ணறிவு. “தி ரிலேட்டிவிட்டி ஆஃப் ராங்” என்ற புத்தகத்தில், சிறந்த அறிவியல் புனைகதை ஆசிரியரும், “மூன்று விதிகள் ரோபாட்டிக்ஸ்” என்ற நூலின் ஆசிரியரும் தவறான முடிவெடுப்பதன் சார்பியல் தன்மையைக் கூறுகிறார். AI நெறிமுறைகளை ஒரு அறிக்கையில் சுருக்கமாகக் கூறலாம். தவறான முடிவெடுப்பதற்கான தீர்வு எவ்வளவு தொடர்புடையது? 1943 இல் வால்டர் பிட்ஸ் மற்றும் வாரன் மெக்கல்லோக் ஆகியோரால் “நரம்பியல் நெட்வொர்க்குகள்” பற்றிய முதல் அடிப்படைக் கட்டுரையிலிருந்து, “டூரிங் மெஷின்” மற்றும் இந்த வார்த்தையின் உருவாக்கம் ஆகியவற்றைப் பின்பற்ற முயற்சித்தது. 1956 இல் டார்ட்மவுத் கல்லூரியில் “செயற்கை நுண்ணறிவு”, AI மெதுவாக ஆனால் சீராக முன்னேறியது. உண்மையான முன்னேற்றம் கடந்த இரண்டு தசாப்தங்களில் உள்ளது, கணினி ஆற்றல் மற்றும் உருவாக்கப்பட்ட வழிமுறைகளில் அதிவேக வளர்ச்சியை மேம்படுத்துகிறது. AI நம் வாழ்வில் நிறைய தாக்கத்தை ஏற்படுத்தியுள்ளது. தன்னியக்க இயந்திர கற்றல் அல்காரிதம்கள் முதல் ஆட்டோமேஷனின் உயர் முன்கணிப்பு வழிமுறைகள் எதுவாக இருந்தாலும், AI எல்லா இடங்களிலும் உள்ளது. AI ஐப் பயன்படுத்தும்போது, அது அல்காரிதம்களைப் போலவே சிறந்தது மற்றும் ஒரு வகையில், சிந்தனை செயல்முறை என்ன என்பதற்கு இது ஒரு எடுத்துக்காட்டு, வடிவமைப்பு மற்றும் மேம்பாட்டுக் குழுக்கள். உலகளாவிய பயனர்களின் பலதரப்பட்ட அம்சங்களை உள்ளடக்கியதாக நாங்கள் உருவாக்கும் அல்காரிதம் முடியுமா? தேர்வுகள் மற்றும் டிரில்லியன் கணக்கான சாத்தியமான முடிவுகளில் பில்லியன்கணக்கான வரிசைமாற்றங்களுக்கு அல்காரிதத்தைப் பயிற்றுவித்து, அவர்கள் ஒவ்வொருவரும் உட்கொண்டிருக்கும் மதிப்புகள் மற்றும் நடத்தைகளின் அடிப்படையில் மனிதர்கள் எவ்வாறு நடந்துகொள்வார்கள் என்பதற்கான பல்வேறு விருப்பங்களை வழங்க முடியுமா? சில உண்மைகளை எடுத்துக் கொள்வோம். முதலாவதாக, AI ஆனது மனிதர்களுக்காகவும் மற்றும் மனிதனால் கட்டமைக்கப்பட்டது மற்றும் மனித மதிப்புகள் மற்றும் நடத்தைகளால் வடிவமைக்கப்பட்டுள்ளது. இது தற்போதைய சமூக சிந்தனையின் கண்ணாடியாக அல்லது ஊட்டப்படுவதைப் போல செயல்படும். மனித மற்றும் சமூக சவால்கள் மற்றும் சிக்கல்களின் தற்போதைய சிக்கலான தன்மையைக் கருத்தில் கொண்டு, அதே சவால்கள் வளர்ந்து வரும் அமைப்புகளுக்கு அனுப்பப்பட்டால் என்ன நடக்கும்?
சில மதிப்பீடுகளின்படி, பெரும்பாலான செயற்கை நுண்ணறிவு புரோகிராமர்கள் இளம் கணினி விஞ்ஞானிகள், இளம் வெள்ளை ஆண். இந்த தொகுப்பு எவ்வாறு பூகோளத்தின் பன்முகத்தன்மையைக் குறிக்கும்? செயற்கை நுண்ணறிவு மற்றும் இயந்திர கற்றலில் பணிபுரியும் புரோகிராமர்களில் 22% மட்டுமே பெண்கள். சிறுபான்மையினர் என்று வரும்போது, எண்ணிக்கை மிகவும் குறைவு. சிறுபான்மையினர் என்று வரும்போது, முக்கியப் பாத்திரங்களில் 4% முதல் 5% வரை பலம் கொண்ட முன்னணி தொழில்நுட்ப நிறுவனங்களின் எடுத்துக்காட்டுகள் உள்ளன. இவை நாம் காணும் மறைமுகமான மற்றும் ஏற்கனவே உள்ள சார்புகளில் சில. தொழில்நுட்பத்திற்கு வரும்போது அல்காரிதம் சார்புகள் மற்றொரு பெரிய சவாலாகும். குறிப்பாக மெஷின் லேர்னிங் அல்காரிதம்களை நாம் அதிகமாகப் பயன்படுத்தும்போது, பெறப்படும் தரவு, விதிகள் மற்றும் தர்க்கரீதியான முடிவுகள் ஆகியவை முடிவைத் தீர்மானிக்கின்றன. எடுத்துக்காட்டாக, அமெரிக்காவில் 27% பெண்கள் CEOக்கள் இருக்கும்போது, CEOகளுக்கான கூகுள் படத் தேடல் 11% பெண் CEOகளை மட்டுமே காட்டுகிறது. அல்காரிதம் எவ்வாறு எழுதப்படுகிறது என்பதன் அடிப்படையில் சில மறைமுகமான முடிவுகள் எடுக்கப்படுகின்றன. கூடுதலாக, வழங்கப்படும் தரவுத் தொகுப்பு உண்மையான நிஜ உலக சூழ்நிலையைப் போலவே வேறுபட்டதாக இருக்க வேண்டும். நிறுவனங்களிடம் தரவு உடனடியாகக் கிடைக்கவில்லை என்றால் இது மற்றொரு சவாலாகும். AI-அடிப்படையிலான அல்காரிதம்கள் எங்கு தவறாகப் போயுள்ளன என்பதற்கு சில உதாரணங்களை எடுத்துக் கொள்வோம். 1. கொடுக்கப்பட்ட உள்ளீடுகளின் அடிப்படையில் அறிந்துகொள்ளும் Twitterக்கான AI- இயக்கப்படும் Chatbot இல் மைக்ரோசாப்ட் மேற்கொண்ட சோதனை – @TayAndYou / Tay Tweets வடிவமைக்கப்பட்ட விதம் காரணமாக மோசமாக தோல்வியடைந்தது. “Say After Me” அம்சம், தவறான பயனர்களால் சாட்போட்டை இனவெறி சாட்போட் போல் காட்டுவதற்காக பயன்படுத்தப்பட்டது. மைக்ரோசாப்ட் அறிமுகப்படுத்தப்பட்ட ஒரு நாளில் பயிற்சியை நிறுத்தியது 2. சில குற்றக் கணிப்புகள் மற்றும் COMPAS, PredPol போன்ற போலீஸ் படைகளால் பயன்படுத்தப்படும் சில குற்றக் கணிப்புகள் மற்றும் இடர் தரவரிசைக் கருவிகள், அதிக ஆபத்துள்ள பெரும்பான்மையினரை விட நிறம் மற்றும் சிறுபான்மையினரின் ஆபத்து மதிப்பெண்களில் கவனம் செலுத்தும் விதம் விமர்சிக்கப்பட்டுள்ளது. காரணம் பகிரப்பட்ட தரவுத்தொகுப்பு, வரையறுக்கப்பட்ட அடிப்படையில் உருவாக்கப்பட்ட ஆபத்து சுயவிவரங்களின் சதவீதம் மற்றும் அல்காரிதம். 3. ஒரு சில Chatbot அடிப்படையிலான மொபைல் பயன்பாடுகள் வழக்கத்திற்கு மாறான வினவல்களைக் கையாள்வதில் சவாலைக் கொண்டுள்ளன, மேலும் அவை புரிந்துகொள்ள முடியாத நிலைக்குச் செல்ல வாய்ப்புள்ளது.
4. துருக்கிய மொழிக்கான கூகுள் மொழிபெயர்ப்பு அல்காரிதம் ஆரம்பத்தில் யார் குழந்தை பராமரிப்பாளராக இருக்க முடியும் என்பதற்கும் மருத்துவருக்கும் பாகுபாடு காட்டியது. நாங்கள் தலைகீழ் மொழிபெயர்ப்பைச் செய்யும்போது அல்காரிதம் “அவள் ஒரு மருத்துவர்” என்பதை “அவர் ஒரு மருத்துவர்” என்று வரைபடமாக்குகிறது. பிரபலமான சமூக ஊடகப் பயன்பாடுகளில் உள்ள தவறான தானியங்கு மொழிபெயர்ப்புக் கருவிகள், உலகெங்கிலும் உள்ள பயனர்கள் மற்றும் பாதுகாப்பு ஏஜென்சிகளால் எடுக்கப்பட்ட ஆபத்தான செயல்களுக்கு வழிவகுத்தன. 5. ஏஐ அல்காரிதம்கள் கண்கள் மற்றும் புருவங்கள் காரணமாக ஆசிய பிராந்தியத்தைச் சேர்ந்தவர்களின் சுயவிவரங்களை நிராகரிக்கலாம் மற்றும் மகிழ்ச்சியான குழந்தை கணிக்கப்படும் மற்றும் விண்ணப்பங்கள் நிராகரிக்கப்படலாம். மேலே கொடுக்கப்பட்ட எடுத்துக்காட்டுகளுக்கு மேலதிகமாக, கையாளுவதற்கு ஆழமான போலிகள் மற்றும் தவறான ஹேக்கர்களின் சவால்கள் உள்ளன. அல்காரிதம் ஒருதலைப்பட்சமாக இருந்தால் சவால்கள் அதிகமாகிவிடும். நாம் வடிவமைக்கும் போது AI மற்றும் பிக் டேட்டாவில் உள்ள சார்புகளின் சவால்களை எவ்வாறு எதிர்கொள்ள முடியும்? ஒரு சமூகமாக, நீதி மற்றும் சமத்துவம், சக்தியின் சரியான பயன்பாடு, பயனர்களின் தனியுரிமையை உறுதி செய்தல், AI மற்றும் ரோபோக்கள் பயன்படுத்தப்படும் பாதுகாப்பு மற்றும் சான்றிதழ், தொழிலாளர் இடப்பெயர்ச்சி மற்றும் வரிவிதிப்பு, தகவல்களை எவ்வாறு கையாள்வது போன்ற பிரச்சினைகளை நாம் கையாள வேண்டும். அமைப்புகளின் காரணமாக எழும் சமச்சீரற்ற தன்மைகள் செயல்படுத்தப்படுகின்றன, பல்வேறு உலகளாவிய பார்வையாளர்களை உள்ளடக்கிய நெறிமுறை ஒருமித்த கருத்தை எவ்வாறு கண்டுபிடிப்பது மற்றும் அரசாங்கத்தின் பொருத்தமின்மை மற்றும் சவால்களை எவ்வாறு எதிர்கொள்வது. ஹார்வர்டு பல்கலைக்கழகத்தின் காஸர் மற்றும் அல்மேடா ஆகியோரால் முன்வைக்கப்பட்ட AI ஆளுமை மாதிரியின் மூன்று அடுக்குகளால் இது தீர்க்கப்படலாம். 1. தரவு மற்றும் அல்காரிதம்களின் தொழில்நுட்ப அடுக்கு – இது தரவு ஆளுமையைக் குறிக்கிறது. பொறுப்பு மற்றும் தரநிலைகள் 2. நெறிமுறை அடுக்கு – இது நெறிமுறை அளவுகோல்கள் மற்றும் கொள்கைகளைக் குறிக்கிறது 3. சமூக மற்றும் சட்ட அடுக்கு – இது சமூக, தேசிய மற்றும் சட்டத் தேவைகளின் விதிமுறைகள், ஒழுங்குமுறை மற்றும் சட்டங்களை நிவர்த்தி செய்கிறது ஆளுகைக் கொள்கைகளை செயல்படுத்துவதன் மூலம் சார்பு மற்றும் பொறுப்புக்கூறலை சரிசெய்தல். உதாரணமாக, நியூயார்க் நகரம் 2017 இல் ஒரு சட்டத்தை இயற்றியுள்ளது, நகரத்தால் பயன்படுத்தப்படும் அல்காரிதம்கள் சார்பு மற்றும் பாகுபாடுகளை நிவர்த்தி செய்வதற்கான நியாயமான மற்றும் வெளிப்படையான பொறிமுறையை உறுதிப்படுத்துகின்றன. ஆஸ்திரேலிய மனித உரிமைகள் ஆணையம் 2018 இல் AI மற்றும் வளர்ந்து வரும் தொழில்நுட்பங்களின் தாக்கத்தை நிவர்த்தி செய்ய ஒரு திட்டத்தைத் தொடங்கியுள்ளது
இறுதியாக, கூகுள் போன்ற தொழில்நுட்ப ஜாம்பவான்கள் நன்கு எழுதப்பட்ட AI கொள்கைகளை பின்பற்றி வருகின்றனர். முடிவுக்கு, AI இன் வெற்றியானது, மனிதனால் செய்யக்கூடியதை விட சிறந்த முறையில், எந்த ஒரு சார்பு மற்றும் வெளிப்படையான முறையும் இல்லாமல், அல்காரிதம் மிகவும் உகந்த மற்றும் சிறந்த முறையில் முடிவுகளை உருவாக்குவதாகும். இந்தியாவின் பெங்களூரு, கர்நாடகா, இந்தியாவில் போக்குவரத்து நிர்வாகத்தை கையாளுவதற்கு AI எவ்வாறு பயன்படுத்தப்படலாம் – திறமையான காவல்துறையை விட சிறந்த முறையில், வழிமுறைகள் மற்றும் கணினி சக்தியால் மனித சோர்வு மற்றும் பிழையின் சவால்களை எதிர்கொள்ள முடியும். ஆக்கபூர்வமான நோக்கங்களுக்காக தொழில்நுட்பத்தைப் பயன்படுத்தும் சமூகம் மற்றும் உலகத்தின் வெற்றி, இது ஒரு பெரிய தடையாக மாறாமல் எப்படிச் செய்யப்படுகிறது என்பதைப் பொறுத்தது.