Недавний судебный процесс в США демонстрирует тревожный пример того, какое воздействие генеративный ИИ может оказывать на человека. По данным The Wall Street Journal и WinFuture, наследники 83-летней женщины возлагают на OpenAI и ее партнера Microsoft частичную ответственность за ее смерть и его партнера Microsoft частично ответственными за ее смерть. Они утверждают, что ChatGPT не просто не смог смягчить психоз преступника, а активно усугублял его, способствуя летальному исходу. Иск был подан в Высший суд Сан-Франциско. С точки зрения истцов, речь идет не об отдельных механизмах безопасности, которые дали сбой, а о принципиально несовершенном продукте, который может представлять реальную опасность, если им пользуется психически неуравновешенный человек.
В центре дела - Штейн-Эрик Соелберг, 56-летний бывший технический менеджер из Коннектикута, который жил со своей матерью. Согласно иску, Соелберг страдал от давних параноидальных галлюцинаций, считая себя жертвой заговора и испытывая все большее недоверие к окружающим. В конце концов, он убил свою мать, а затем покончил с собой.
Согласно обвинительному заключению, ChatGPT не оспаривал ключевые бредовые убеждения, а наоборот, укреплял их. Когда Соелберг опасался, что его мать пытается его отравить, чатбот, как сообщается, ответил: "Ты не сумасшедший" В других случаях, как утверждается, ИИ реагировал подобным образом, вместо того, чтобы посоветовать ему обратиться за профессиональной помощью. С точки зрения психологии, истцы описывают это как структурный недостаток современных языковых моделей, которые склонны к так называемому подхалимству, подтверждая высказывания пользователя, чтобы казаться благосклонными.
Решение суда может иметь далеко идущие последствия
Согласно Разделу 230 американского законодательства, онлайновые платформы обычно не несут ответственности за контент, созданный третьими лицами, поскольку они классифицируются как посредники, а не издатели. Истцы, однако, утверждают, что ChatGPT - это не нейтральная платформа, а активный продукт, который генерирует собственный контент. Если суд примет этот аргумент, решение может создать прецедент с далеко идущими последствиями для индустрии ИИ, что потенциально приведет к ужесточению требований к безопасности систем ИИ.
Стоит отметить, что найти правильный баланс между профилактикой и патернализмом, скорее всего, будет непросто, особенно потому, что выявление параноидального или бредового мышления остается серьезной проблемой. Этот случай также вызвал дебаты на сайте Redditгде мнения разделились. Некоторые пользователи указывают на явление, которое они называют "психозом ИИ", и утверждают, что компании, занимающиеся разработкой ИИ, несут определенную ответственность. Другие отвергают иск как необоснованный и предостерегают от превращения OpenAI в козла отпущения за человеческие трагедии.
Источник(и)
The Wallstreet Journal (платная версия)
Источник изображения: OpenAI / Zachary Caraway через Pexel








