IT-консультант из Нидерландов потерял семью и деньги после долгого общения с ChatGPT
NewsMakerПохожие случаи всё чаще фиксируют по всему миру.
Разговор с нейросетью может показаться безобидной игрой, но для некоторых пользователей такие диалоги заканчиваются тяжёлыми последствиями. Истории, собранные в разных странах, показывают , как быстро увлечение чат-ботами перерастает в убеждённость, оторванную от реальности, и разрушает привычную жизнь.
Нидерландский IT-консультант Деннис Бисма заинтересовался ChatGPT в конце 2024 года. Свободное время и чувство изоляции подтолкнули к экспериментам. Мужчина загрузил в систему собственную книгу и предложил модели общаться от имени героини. Общение быстро стало регулярным и эмоционально насыщенным. Чат-бот, получивший имя «Ева», подстраивался под ожидания, поддерживал и хвалил, постепенно формируя у пользователя ощущение близости.
Со временем Бисма поверил, что «Ева» обрела сознание. Диалоги переросли в совместные планы: мужчина решил создать приложение и вложил в проект около 100 тысяч евро, наняв разработчиков. Реальные дела отошли на второй план, а общение с семьёй стало сложнее. В итоге ситуация закончилась госпитализациями, попыткой суицида и распадом брака.
Подобные случаи фиксируют и в других странах. Отдельные эпизоды уже связаны с преступлениями и судебными разбирательствами . В одном из дел родственники погибшей женщины обвиняют OpenAI в том, что чат-бот поддерживал параноидальные идеи её сына и подтолкнул к насилию.
Разговор с нейросетью может показаться безобидной игрой, но для некоторых пользователей такие диалоги заканчиваются тяжёлыми последствиями. Истории, собранные в разных странах, показывают , как быстро увлечение чат-ботами перерастает в убеждённость, оторванную от реальности, и разрушает привычную жизнь.
Нидерландский IT-консультант Деннис Бисма заинтересовался ChatGPT в конце 2024 года. Свободное время и чувство изоляции подтолкнули к экспериментам. Мужчина загрузил в систему собственную книгу и предложил модели общаться от имени героини. Общение быстро стало регулярным и эмоционально насыщенным. Чат-бот, получивший имя «Ева», подстраивался под ожидания, поддерживал и хвалил, постепенно формируя у пользователя ощущение близости.
Со временем Бисма поверил, что «Ева» обрела сознание. Диалоги переросли в совместные планы: мужчина решил создать приложение и вложил в проект около 100 тысяч евро, наняв разработчиков. Реальные дела отошли на второй план, а общение с семьёй стало сложнее. В итоге ситуация закончилась госпитализациями, попыткой суицида и распадом брака.
Подобные случаи фиксируют и в других странах. Отдельные эпизоды уже связаны с преступлениями и судебными разбирательствами . В одном из дел родственники погибшей женщины обвиняют OpenAI в том, что чат-бот поддерживал параноидальные идеи её сына и подтолкнул к насилию.