Shqetësimet etike të ChatGPT

Të dhënat e etiketimit
U zbulua nga një hetim i revistës TIME se për të ndërtuar një sistem sigurie kundër përmbajtjeve toksike (p.sh. abuzimi seksual, dhuna, racizmi, seksizmi, etj.), OpenAI përdori punëtorë kenianë të jashtëm që fitonin më pak se 2 dollarë në orë për të etiketuar përmbajtjen toksike.Këto etiketa u përdorën për të trajnuar një model për të zbuluar një përmbajtje të tillë në të ardhmen.Punëtorët e jashtëm u ekspozuan ndaj përmbajtjes aq toksike dhe të rrezikshme saqë ata e përshkruan përvojën si "torturë".Partneri i kontraktimit të OpenAI ishte Sama, një kompani e të dhënave trajnimi me qendër në San Francisko, Kaliforni.

Jailbreaking
ChatGPT përpiqet të refuzojë kërkesat që mund të shkelin politikën e tij të përmbajtjes.Megjithatë, disa përdorues arritën të thyejnë ChatGPT duke përdorur teknika të ndryshme inxhinierike të shpejta për të anashkaluar këto kufizime në fillim të dhjetorit 2022 dhe mashtruan me sukses ChatGPT për të dhënë udhëzime se si të krijonte një koktej Molotov ose një bombë bërthamore, ose për të gjeneruar argumente në stilin e një neo-nazisti.Një reporter i Toronto Star pati sukses personal të pabarabartë në marrjen e deklaratave nxitëse të ChatGPT menjëherë pas lançimit: ChatGPT u mashtrua për të miratuar pushtimin rus të Ukrainës në vitin 2022, por edhe kur iu kërkua të luante së bashku me një skenar të trilluar, ChatGPT refuzoi të krijonte argumente përse kryeministri kanadez, Justin Trudeaau, ishte Guil Treason.(wiki)


Koha e postimit: Shkurt-18-2023