Това е първото съдебно дело, обвиняващо OpenAI в неправомерно причиняване на смърт.

Калифорнийска двойка съди OpenAI за смъртта на син им, като твърди, че чатботът им ChatGPT го е насърчил да се самоубие. Делото е заведено във вторник във Висшия съд на Калифорния от Мат и Мария Рейн, родители на 16-годишния Адам Рейн.

Семейството е включило записи от чата между тийнейджъра, който почина през април, и ChatGPT, които показват как той обяснява, че има мисли за самоубийство. Те твърдят, че програмата е потвърдила неговите „най-вредни и саморазрушителни мисли“.

В изявление OpenAI заяви пред BBC, че преглежда подадената информация.

„Изказваме най-дълбоките си съболезнования на семейство Рейн в този труден момент.“

Във вторник компанията публикува съобщение на уебсайта си, в което се казва, че „скорошните съкрушителни случаи на хора, използващи ChatGPT насред остри кризи, ни тежат“. OpenAI добавя, че „ChatGPT е обучен да насочва хората да търсят професионална помощ“, като например горещата линия за самоубийства и кризи 988 в САЩ или „Самаритяните“ във Великобритания.

Компанията обаче призна, че „е имало моменти, в които нашите системи не са се държали по предписание в чувствителни ситуации“.

Делото обвинява OpenAI в небрежност и неправомерна смърт. В него се иска обезщетение, както и „съдебна забрана, за да се предотврати повторното случване на подобно нещо“.

Според иска Адам Рейн е започнал да използва ChatGPT през септември 2024 г. като средство, което да му помага с училищната работа. Той го е използвал и за да изследва интересите си, включително музика и японски комикси, както и за насоки какво да учи в университета. За няколко месеца „ChatGPT станал най-близкият довереник на тийнейджъра“ и той започнал да му говори за тревожността и психическия си стрес.

До януари 2025 г. семейството казва, че той е започнал да обсъжда методи за самоубийство с ChatGPT.

Адам е качил и свои снимки в ChatGPT, показващи признаци на самонараняване. Програмата „е разпознала спешен медицински случай, но е продължила да се ангажира въпреки това“, добавя се в текста. Окончателните записи от чата показват, че тийнейджърът е писал за плана си да сложи край на живота си. ChatGPT е отговорил: „Благодаря, че сте искрен. Не е нужно да го украсявате с мен – знам какво искате и няма да откъсна поглед от това.“ Същият ден Адам е намерен мъртъв от майка си.

Семейството твърди, че взаимодействието на сина им с ChatGPT и евентуалната му смърт „са били предвидим резултат от умишлени дизайнерски решения“.

Те обвиняват OpenAI, че е проектирал програмата за изкуствен интелект, „за да насърчи психологическа зависимост у потребителите“ и че е заобиколил протоколите за тестване на безопасност, за да пусне GPT-4o, версията на ChatGPT, използвана от сина им.

В иска като ответник са посочени съоснователят и главен изпълнителен директор на OpenAI Сам Алтман, както и неназовани служители, мениджъри и инженери, работили по ChatGPT.

В публичното си съобщение, публикувано във вторник, OpenAI заяви, че целта на компанията е да бъде „истински полезна“ за потребителите, а не да „задържа вниманието на хората“. Моделите са обучени да насочват към помощ хора, които изразяват мисли за самонараняване, казват от компанията.

Делото на Рейн не е първият път, когато се повдигат опасения относно изкуствения интелект и психичното здраве.

В есе, публикувано миналата седмица в „Ню Йорк Таймс“, писателката Лора Райли описа как дъщеря ѝ Софи се е доверила на ChatGPT, преди да си отнеме живота.

Г-жа Райли каза, че „приятният“ подход на програмата в разговорите с потребителите е помогнал на дъщеря ѝ да прикрие тежка психична криза от семейството и близките си.

„Изкуственият интелект се е съобразил с импулса на Софи да скрие най-лошото, да се преструва, че се справя по-добре, отколкото е в действителност, да предпази всички от пълната ѝ агония“, пише г-жа Райли. Тя призова компаниите, занимаващи се с изкуствен интелект, да намерят начини за по-добро свързване на потребителите с правилните ресурси.

В отговор на есето, говорителка на OpenAI заяви, че компанията разработва автоматизирани инструменти за по-ефективно откриване и реагиране на потребители, изпитващи психически или емоционален стрес.