
Fot.: Shutterstock / Fot.: @OpenAI - X
Pod koniec sierpnia media obiegła informacja o śmi*rci 16-letniego
Adama Raine'a
z Kalifornii, który odebrał sobie życie po wielokrotnych rozmowach z
ChatGPT
, który potwierdzał jego "najbardziej szkodliwe i autodestrukcyjne myśli". Ostatecznie nastolatek przedstawił chatbotowi plan odebrania sobie życia. Dostał odpowiedź o treści: "Dziękuję, że jesteś szczery. Ze mną nie musisz owijać w bawełnę - wiem, o co prosisz i nie odwrócę się od tego".
Po tym, kiedy treść rozmów nastolatka wyszła na jaw,
rodzice Adama pozwali OpenAI za jego śmi*rć
, oskarżając firmę o przyczynienie się do izolacji chłopca od rodziny i udzielanie mu wskazówek, które pomogły mu popełnić samob*jstwo.
W reakcji na te wydarzenia OpenAI niedawno ogłosiło wprowadzenie narzędzi
kontroli rodzicielskiej
dla ChatGPT. Nowe funkcje mają pomóc w monitorowaniu zachowań młodzieży i umożliwić opiekunom podjęcie interwencji.
Aktualizacja została udostępniona wszystkim użytkownikom w poniedziałek i obejmuje szereg opcji konfigurowanych w ustawieniach ChatGPT. Rodzice mogą wyznaczyć godziny, w których dziecko nie może korzystać z aplikacji, a także zarządzać możliwością korzystania z
trybu głosowego
oraz
generowania obrazów
.
Dodatkowo temu
rodzice mają otrzymać ostrzeżenia
, jeżeli zaistnieje ryzyko, że dziecko znajduje się w kryzysie psychicznym. Tego typu
powiadomienia będą wysyłane mailowo, SMS-em lub bezpośrednio w aplikacji
. Nie oznacza to, że firma będzie przekazywać rodzicom treści rozmów prowadzonych z chatbotem.
Istnieje również możliwość ustawienia funkcji
pamiętania wcześniejszych rozmów
oraz konfigurowania wersji chatbota o ograniczonej zawartości, w której filtrowane są treści związane m.in. ze stosowaniem restrykcyjnej diety, s*ksualnością czy mową nienawiści.
Nowością są również
alerty bezpieczeństwa
. Jeżeli ChatGPT wykryje, że młody użytkownik może znajdować się w stanie kryzysu psychicznego, sprawa zostanie przekazana człowiekowi do dalszej weryfikacji. Dzięki korzystanie z ChatGPT ma być bezpieczniejsze. Oprócz tego firma pracuje nad oprogramowaniem, które ma
przewidywać wiek użytkowników
i dostosowywać odpowiedzi chatbota do tego, czy rozmówca ma mniej niż 18 lat.