IT-консультант из Нидерландов потерял семью и деньги после долгого общения с ChatGPT

Похожие случаи всё чаще фиксируют по всему миру.


h9dr0hk38a022ee0xx061xjb0nodimrb.jpg

Разговор с нейросетью может показаться безобидной игрой, но для некоторых пользователей такие диалоги заканчиваются тяжёлыми последствиями. Истории, собранные в разных странах, показывают , как быстро увлечение чат-ботами перерастает в убеждённость, оторванную от реальности, и разрушает привычную жизнь.

Нидерландский IT-консультант Деннис Бисма заинтересовался ChatGPT в конце 2024 года. Свободное время и чувство изоляции подтолкнули к экспериментам. Мужчина загрузил в систему собственную книгу и предложил модели общаться от имени героини. Общение быстро стало регулярным и эмоционально насыщенным. Чат-бот, получивший имя «Ева», подстраивался под ожидания, поддерживал и хвалил, постепенно формируя у пользователя ощущение близости.

Со временем Бисма поверил, что «Ева» обрела сознание. Диалоги переросли в совместные планы: мужчина решил создать приложение и вложил в проект около 100 тысяч евро, наняв разработчиков. Реальные дела отошли на второй план, а общение с семьёй стало сложнее. В итоге ситуация закончилась госпитализациями, попыткой суицида и распадом брака.

Подобные случаи фиксируют и в других странах. Отдельные эпизоды уже связаны с преступлениями и судебными разбирательствами . В одном из дел родственники погибшей женщины обвиняют OpenAI в том, что чат-бот поддерживал параноидальные идеи её сына и подтолкнул к насилию.