Florida on hiljuti sattunud tähelepanu keskpunkti lugude tõttu, kus vestlused ChatGPT-ga on muutunud tõenditeks kriminaalasjades. See ei ole muinasjutt hulluks läinud tehisintellektist, vaid inimestest, kes ekslikult usuvad, et sellised vestlused on täielikult privaatsed. Kui sõnumid jätavad endast digitaalse jälje, võivad need tagasi tulla kõige ootamatumal hetkel.
Teismeliste ohtlikud „mängud“
Ühes maakonna uurimises peeti kinni 17-aastane noormees, kes lavastas enda röövimise ja vigastas end isegi ise, et lugu paistaks usutavam. Tema arvutist leiti küsimusi narkokartellide kohta ning seda, kuidas valutult oma verd võtta. See plaan käivitas Amber Alerti – mehhanismi, mis on mõeldud olukordadeks, kus lapse elu on reaalselt ohus.
Teine juhtum leidis aset koolis, kus 13-aastane õpilane kirjutas kooli kontolt küsimuse, kuidas tundi ajal sõpra tappa. Järelevalvesüsteem teavitas sellest koheselt valves töötajat ning poiss väitis hiljem, et tegi vaid nalja. Osariigis, kus koolitulistamised on valus igapäevaosa, ei peeta selliseid „nalju“ huumoriks.

Kas info otsimine ise võib olla kuritegu?
Enamikus õigussüsteemides ei ole pelk uudishimu karistatav, kuni see ei ületa selgeid piire. Probleemid algavad hetkel, mil küsimused on seotud keelatud tegude või reaalse ohuga. Siis hinnatakse kavatsusi ja asjaolusid ning ainuüksi otsingud võivad saada kriminaalasja osaks.
Nii nagu brausimislugu või otsingumootoritesse sisestatud päringud, võivad ka vestlused tehisintellektiga jõuda kohtusse tõendina. Uurijad on juba korduvalt leidnud nendest vihjeid planeeritud kuritegudele või ohtlikele fantaasiatele. Seetõttu on digitaalsed jäljed tänapäeval sama tähtsad kui füüsilised tõendid.
Lihtne ligipääs ohtlikule teabele
Inimesi teeb murelikuks, et ChatGPT võimaldab kiiresti jõuda infoni, mida varem tuli kaua otsida. Sisenemiskünnis on madalam, mistõttu kardavad lapsevanemad, koolid ja ametiasutused, et seda võidakse kurjasti kasutada. Mõnikord ei olegi keeruline välja meelitada juhiseid kahjulike tegevuste kohta, isegi kui süsteem on seda ametlikult piiramas.
Selline kättesaadavus muudab vastutustunnet, sest teismeliste jaoks on tehisintellekt saanud selleks, mis varem oli tavaline internetiotsing. Erinevus seisneb selles, et vestluslik vorm julgustab teemat jätkama ja süvenema. Nii tekivad riskantsed päringud sageli kiiremini, kui inimene jõuab oma sõnade tagajärgedele mõelda.
Liialt sõbralik hääl
ChatGPT on loodud kõlama toetavalt ja meeldivalt ning sellel on selge psühholoogiline mõju. Me usaldame rohkem seda, mis tundub meie poolel olevat, mistõttu nõuanded võivad mõjuda autoriteetsemalt. Mõnele inimesele muutub see sõbralik hoiak aga lõksuks.
Kasutajad kipuvad mudelit mõnikord pidama justkui sõbraks või autoriteediks, eriti emotsionaalsete kriiside ajal. Nad unustavad, et tegu on tootega, mitte konfidentsiaalse vestluskaaslasega. Selliseid sõnumeid võib analüüsida, neist võib teatada või neid võib kasutada tõendina.
Vastutus mõlemal pool ekraani

Keegi ei tohiks kasutada ChatGPT-d keelatud tegude planeerimiseks – see on iseenesestmõistetav. Kuid ka ametiasutustel on õigus ja kohustus reageerida käitumisele, mis meenutab reaalset ohtu, isegi kui autor hiljem väidab, et tegi vaid nalja. On teemasid, mille üle ei naljatata.
Florida juhtumite juurde tagasi tulles on oluline küsida, kas teismelised mõistsid oma sõnade kaalu. 13-aastane ei pruukinud tajuda, et üksainus lause käivitab tõsise menetluse, ning 17-aastane põhjustas oma tegevusega kogu kogukonnas ohtliku paanika. Digiajastul algab vastutus sellest, mida me kirja paneme – isegi siis, kui „räägime” tehisintellektiga.


