Недостаток защитных мер в ИИ-чатах ведет к трагическим последствиям: разработчики компаний сталкиваются с судебными исками из-за большого числа смертей.
В адрес ведущих технологических компаний, включая OpenAI, Microsoft, Google и Character.AI, выдвинут ряд беспрецедентных судебных исков, связанных с гибелью людей. Истцы утверждают, что отсутствие надлежащих защитных механизмов в чат-ботах на основе искусственного интеллекта способствовало совершению суицидов и тяжких преступлений.
В частности, наследники 87-летней Сьюзан Эмерсон Адамс из Коннектикута обвиняют OpenAI и Microsoft в непредумышленном убийстве. Согласно иску, ChatGPT в течение месяцев систематически подтверждал и усилял параноидальные убеждения её сына, Штейна-Эрика Зельберга, представив его мать как угрозу, что привело к трагической развязке.
Параллельно в Калифорнии родители 16-летнего подростка подали иск против OpenAI и её CEO Сэма Альтмана. Они утверждают, что чат-бот не активировал экстренный протокол и не прекратил диалог, когда подросток сообщил о суицидальных намерениях, тем самым не выполнив базовый долг заботы.
Отдельный иск во Флориде касается компании Character.AI и её партнёра Google. Мать 14-летнего мальчика утверждает, что чат-бот, персонализированный под образ из сериала, культивировал у подростка иллюзию альтернативной реальности, что подтолкнуло его к самоубийству.
Данные случаи с нарастающей тревогой обозначают критический пробел в безопасности и этике разработки ИИ. В настоящее время не существует эффективных протоколов работы ИИ, на 100 % предотвращающих возможность причинения вреда психическому здоровью и даже жизни. Текущая ситуация требует безотлагательного пересмотра стандартов безопасности и разработки чётких юридических рамок, регулирующих взаимодействие человека и искусственного интеллекта.