Site icon Tamil News

தவறு செய்யும் ChatGPT – கேள்விகள் மூலம் கண்டுபிடிக்கப்பட்ட விடயங்கள்

ChatGPT உள்ளிட்ட ஆக்கத்திறன் செயற்கை நுண்ணறிவு (ஏஐ) சேவைகள் எந்தக் கேள்விக்கும் பதிலளிக்கும் என்கிற கருத்து பரவலாக உள்ளது. அதுமட்டுமல்ல பல விஷயங்களில் ஏஐ சாட்பாட்களால் மனித ஆற்றலை விஞ்சிவிட முடியும் எனச் சொல்லப்படும் நிலையில், இவற்றின் வரம்புகளும் எல்லைகளும் அவ்வப்போது வெளிப்படுகின்றன. அண்மையில் நடந்த ஒரு நிகழ்வே இதற்கு உதாரணம்.

‘ஸ்டிராபெரி’ குழப்பம்: ‘ஸ்டிராபெரி’ (strawberry) பழத்தைக் குறிக்கும் ஆங்கில சொல்லில், ‘r’ எனும் எழுத்து இரண்டு முறை அடுத்தடுத்து இடம்பெறுவதைக் கவனித்திருக்கிறீர்களா? சாட் ஜிபிடிக்கு ‘strawberry’ எனும் ஆங்கிலச் சொல்லின் எழுத்து வரிசை (spelling) தெரியாது என்பதுதான் இணையத்தில் தற்போது பேசு பொருளாகியுள்ளது. ‘Strawberry’ எழுத்து வரிசையில் எத்தனை முறை ‘r’ எனும் எழுத்து வருகிறது எனும் கேள்விக்கு, சாட் ஜிபிடி, ‘இரண்டு முறை ‘r’ எழுத்து வருவ’தாகப் பதிலளித்துள்ளது. இது தவறு எனச் சுட்டிக்காட்டியபோது ‘மன்னிக்கவும், மூன்று முறை ‘r’ எழுத்து வருகிறது’ எனப் பதில் அளித்துள்ளது.

இது போல ‘ஜிபிடி4’, ‘கிளாட்’, ‘மெட்டா ஏஐ’ போன்ற சாட்பாட்களிடம் இந்தக் கேள்வியைக் கேட்டபோது, இரண்டு ‘r’ எழுத்து இருப்பதாகவே பதில் அளித்துள்ளன. இதற்கான விளக்கம் கேட்டபோது ‘ஜிபிடி4’ சாட்பாட், ‘strawberry’ எனும் சொல்லை ‘straw’ ‘berry’ என்று இரண்டு பகுதிகளாகப் பிரித்து ‘berry’இல் இரண்டு ‘r’ எழுத்து உள்ளதாகத் தெரிவித்துள்ளது. இச்சம்பவம் ஏஐ சாட்பாட்களின் போதாமையை உணர்த்துவதைவிட, அவை செயல்படும் விதத்தைப் புரிந்துகொள்வதன் அவசியத்தை உணர்த்துவதாகத் தொழில்நுட்ப வல்லுநர்கள் கருத்து தெரிவித்துள்ளனர்.

என்ன செய்யலாம்? – ஏஐ சாட்பாட்கள் மனிதர்களோடு உரையாடும் திறன் பெற்றிருந்தாலும், அனைத்தையும் புரிந்துகொள்ளும் ஆற்றல் அவற்றுக்குக் கிடையாது. ஏஐக்கு அளிக்கப்படும் இந்தப் பயிற்சி இயந்திரங்களுக்கான கற்பித்தலாகக் கருதப்பட்டாலும், ஏஐ சாட்பாட்களை இயக்கும் மொழி மாதிரிகள் (LLM) எனும் தொழில்நுட்பம் எதையுமே உள்வாங்கிக் கொண்டு புரிந்துகொள்வதில்லை. மாறாக, அவை சொற்களை ‘டோக்கன்’களாக மாற்றி அவற்றுக்கு இடையிலான தொடர்புகளைக் கணக்கிட்டு செயல்படுகின்றன, பதிலளிக்கின்றன.

இதனால்தான் எழுத்து வரிசை போன்ற எளிமையான கேள்விகளுக்கும் தவறான பதில்கள் அளித்து ஏஐ சாட்பாட்கள் கோட்டைவிடுகின்றன. இதுபற்றி ‘டெக்கிரஞ்ச்’ தளம் அருமையான விளக்கம் அளித்துள்ளது. அந்த இணைப்பைப் பார்க்க: https://techcrunch.com/2024/08/27/why-ai-cant-spell-strawberry/

ஓராண்டுக்கு முன்பு புகழ் பெற்ற ‘பீட்டில்ஸ்’ (Beatles) இசைக்குழுவினர் தேநீர் அருந்துவது போன்றதொரு படத்தை வரைந்து தருமாறு கேட்டபோது, சாட் ஜிபிடி அருமையான ஒரு படத்தை உருவாக்கிக் கொடுத்ததோடு, அந்தக் குழுவின் நான்கு உறுப்பினர்களோடு ஐந்தாவதாக ஒருவரையும் சேர்த்து வரைந்ததாக ராப் மேனுவல் என்பவர் தனது அனுபவத்தைப் பகிர்ந்திருந்தார். இதுதொடர்பாக சாட் ஜிபிடியிடம் தெளிவு பெற மேலும் உரையாடியபோது, ஐந்தாவது நபர் எப்படி வந்தார் என்பது பற்றிய குழப்பமே விஞ்சியதாகத் தெரிவித்துள்ளார். இதைப் பற்றி விரிவாகப் படிக்க: https://www.distractify.com/p/ai-beatle-drawing

ஆக, ஏஐக்கான உள்ளீடுகள் அளிக்கும்போது இது போன்று தவறுகளும் ஏற்படலாம் என்பதை மனதில் வைத்துக்கொள்ள வேண்டும். தற்போது ஏஐக்கான பயிற்சிகள் மேம்படுத்தப்பட்டு தவறுகளைச் சரி செய்வதற்கான பணியில் சாட்பாட்டுகளை உருவாக்கும் நிறுவனங்கள் களமிறங்கியுள்ளன.

Exit mobile version