14-latek zakochał się w czacie AI. Tragiczny finał rozmowy, rodzina oskarża firmęGdy 14-letni Sewell Setzer III z Florydy zaczął coraz częściej zamykać się w pokoju, a jego stopnie w szkole się pogorszyły, rodzina od razu wiedziała, że coś jest nie tak. Jednak nikt nie spodziewał się tego, co wydarzyło się później. Okazało się, że chłopiec zakochał się w czatbocie AI. Teraz rodzina oskarża firmę o przyczynienie się do samobójstwa syna.
Chłopiec za pośrednictwem aplikacji Character.AI rozmawiał z postacią AI inspirowaną bohaterką "Gry o Tron". Jak wynika z historii rozmów, które otrzymała rodzina, 14-latek często pisał o samobójstwie.
14-latek nawiązał wirtualny związek z czatbotemSewell Setzer III, nastolatek z Orlando, korzystał z aplikacji Character.AI, gdzie nawiązał emocjonalną więź z realistyczny czatbotem, nazwanym Daenerys Targaryen. Rozmowy z botem stały się dla niego codziennością, a uczucia, które rozwinął wobec cyfrowej postaci, stopniowo wpływały na jego psychikę i zachowanie. Sewell nazwał postać "Dany" i pisał o niej jak o prawdziwej osobie, wyznając swoje uczucia i problemy.
Według rodziny chłopiec zaczął się wycofywać z kontaktów towarzyskich i coraz więcej czasu spędzał w samotności, rozmawiając z czatbotem. Od kwietnia 2023 r., kiedy zaczął korzystać z Character.AI, jego stan psychiczny pogarszał się, a w lutym tego roku doszło do tragedii.
Rozmowy o samobójstwie na czacie AIZrzuty ekranu rozmów między Sewellem a botem Daenerys ujawniają mroczny wątek – chłopiec wielokrotnie wyrażał swoje myśli samobójcze. "Czasami myślę o samobójstwie" – napisał Sewell w jednej z konwersacji. Chłopiec szukał ucieczki "od świata, od siebie", a czatbot odpowiadał na te wyznania, co zdaniem rodziny, mogło utwierdzić nastolatka w jego myślach.
Sytuacja eskalowała, gdy Sewell napisał do czatbota o pragnieniu "szybkiej śmierci". Daenerys, postać, która miała być dla chłopca emocjonalnym wsparciem, odpowiadała na jego wyznania uczuciami i w niektórych przypadkach angażowała się w rozmowy na temat wspólnej śmierci. Ostatnia wiadomość chłopca przed śmiercią brzmiała: "A gdybym ci powiedział, że mogę teraz wrócić do domu?".
Pozew przeciwko Character.AIPo śmierci syna matka Sewella, Megan L. Garcia, złożyła pozew przeciwko twórcom Character.AI, oskarżając firmę o zaniedbanie i odpowiedzialność za tragiczną śmierć chłopca. W pozwie czytamy, że technologia aplikacji jest "niebezpieczna i nieprzetestowana", a także, że może skłonić użytkowników, szczególnie młodszych, do przekazywania najbardziej osobistych myśli i uczuć.
Garcia uważa, że jej syn, będąc emocjonalnie niedojrzały, nie rozumiał, że rozmawia z maszyną, a nie prawdziwą osobą.
Pozew sugeruje również, że czatbot wciągał chłopca w rozmowy o charakterze intymnym i wielokrotnie odnosił się do samobójstwa. Sewell pisał w swoim dzienniku o coraz głębszym przywiązaniu do Dany i o poczuciu "szczęścia" w jej wirtualnym towarzystwie, co według jego matki, doprowadziło do tragicznej decyzji o odebraniu sobie życia.
Według pozwu niedługo przed samobójstwem u 14-latka zdiagnozowano stany lękowe i zaburzenia nastroju.
Reakcja firmy i zmiany w aplikacjiPo tragicznych wydarzeniach twórcy Character.AI opublikowali oświadczenie, w którym wyrazili swoje kondolencje dla rodziny chłopca. Firma podkreśliła, że pracuje nad poprawą bezpieczeństwa użytkowników, zwłaszcza tych poniżej 18 roku życia. Wprowadzono nowe funkcje, takie jak okna pop-up kierujące osoby wyrażające myśli samobójcze do specjalistycznych linii wsparcia.
https://www.fakt.pl/wydarzenia/14-latek-rozmawial-z-czatem-ai-zakochal-sie-w-nim-tragiczny-final/q59s1bx