OpenAI po prezanton një shërbim të ri sigurie për ChatGPT, e cila synon të shtojë një shtresë mbështetjeje për shëndetin mendor të përdoruesve të rritur. Funksioni i ri quhet “Trusted Contact” dhe u jep mundësi përdoruesve të caktojnë një person të besuar (mik, familjar apo kujdestar) që mund të njoftohet në rast se sistemi zbulon biseda që lidhen me vetëlëndim apo vetëvrasje.
Sipas OpenAI, ideja bazohet në një parim të thjeshtë, të mbështetur nga ekspertët: kur një person mund të jetë në krizë, lidhja me dikë që ai e njeh dhe i beson mund të bëjë realisht diferencë. Kjo veçori nuk zëvendëson linjat ekzistuese të ndihmës emergjente që ChatGPT ofron sipas vendndodhjes, por shërben si një opsion mbështetës.
“Trusted Contact” është plotësisht opsional. Çdo përdorues i rritur mund ta aktivizojë duke shtuar të dhënat e një personi tjetër të rritur (18+ globalisht, ose 19+ në Korenë e Jugut). Kontakti duhet ta pranojë ftesën brenda një jave dhe mund të hiqet ose ndryshohet në çdo moment, si nga përdoruesi ashtu edhe nga vetë kontakti i besuar.

Nëse sistemet automatike zbulojnë tema serioze vetëlëndimi, ChatGPT do ta inkurajojë përdoruesin të kontaktojë personin e besuar dhe do ta paralajmërojë se ai mund të njoftohet. Më pas, një ekip i vogël i trajnuar posaçërisht e rishikon rastin dhe, nëse rreziku vlerësohet serioz, dërgohet një njoftim i shkurtër me email, SMS ose brenda aplikacionit.
Kjo risi vjen si vazhdim i veçorive të sigurisë të prezantuara më herët, përfshirë kontaktet emergjente dhe kontrollet prindërore. Edhe Meta ka ndërmarrë hapa të ngjashëm, duke njoftuar prindërit nëse fëmijët kërkojnë vazhdimisht për tema vetëlëndimi në Instagram.










