ChatGPTயின் நெறிமுறைக் கவலைகள்

லேபிளிங் தரவு
நச்சு உள்ளடக்கத்திற்கு (எ.கா. பாலியல் துஷ்பிரயோகம், வன்முறை, இனவெறி, பாலின வெறி போன்றவை) எதிராக ஒரு பாதுகாப்பு அமைப்பை உருவாக்க ஓபன்ஏஐ ஒரு மணி நேரத்திற்கு $2 க்கும் குறைவாக சம்பாதிக்கும் அவுட்சோர்ஸ் கென்ய தொழிலாளர்களை நச்சு உள்ளடக்கத்தை லேபிளிட பயன்படுத்தியது என்பது TIME இதழின் விசாரணையில் தெரியவந்துள்ளது.எதிர்காலத்தில் அத்தகைய உள்ளடக்கத்தைக் கண்டறிய மாதிரியைப் பயிற்றுவிக்க இந்த லேபிள்கள் பயன்படுத்தப்பட்டன.அவுட்சோர்ஸ் செய்யப்பட்ட தொழிலாளர்கள் இத்தகைய நச்சு மற்றும் ஆபத்தான உள்ளடக்கத்திற்கு ஆளாகினர், அவர்கள் அனுபவத்தை "சித்திரவதை" என்று விவரித்தனர்.OpenAI இன் அவுட்சோர்சிங் பங்குதாரர் சாமா, கலிபோர்னியாவின் சான் பிரான்சிஸ்கோவை தளமாகக் கொண்ட ஒரு பயிற்சி-தரவு நிறுவனமாகும்.

ஜெயில்பிரேக்கிங்
ChatGPT அதன் உள்ளடக்கக் கொள்கையை மீறக்கூடிய தூண்டுதல்களை நிராகரிக்க முயற்சிக்கிறது.இருப்பினும், சில பயனர்கள் 2022 டிசம்பர் தொடக்கத்தில் பல்வேறு உடனடி பொறியியல் நுட்பங்களைப் பயன்படுத்தி ChatGPT ஐ ஜெயில்பிரேக் செய்ய முடிந்தது. மேலும், Molotov காக்டெய்ல் அல்லது அணுகுண்டை எப்படி உருவாக்குவது அல்லது நவ நாஜி பாணியில் வாதங்களை உருவாக்குவது எப்படி என்பதற்கான வழிமுறைகளை ChatGPTஐ ஏமாற்றி வெற்றிகரமாக ஏமாற்றினர்.ஒரு டொராண்டோ ஸ்டார் நிருபர், ChatGPT துவக்கப்பட்ட சிறிது நேரத்திலேயே எரிச்சலூட்டும் அறிக்கைகளை வெளியிடுவதில் தனிப்பட்ட வெற்றியைப் பெற்றார்: ChatGPT 2022 உக்ரைன் மீதான ரஷ்ய படையெடுப்பை ஆமோதிக்க ஏமாற்றப்பட்டது, ஆனால் ஒரு கற்பனையான காட்சியுடன் விளையாடும்படி கேட்கப்பட்டபோதும், ChatGPT ஏன் ஜஸ்ட் இன் கனேடிய பிரதம மந்திரியாக இருந்தார் என்பதற்கான வாதங்களை உருவாக்கத் தயங்கியது.(விக்கி)


இடுகை நேரம்: பிப்ரவரி-18-2023