«ИИ, не входи. ИИ, уходи». Редакторы Википедии восстали против нейросетевых алгоритмов
NewsMakerМодераторы устали бороться с невидимым врагом.
Свободная энциклопедия, которую десятилетиями наполняли добровольцы, неожиданно оказалась на передовой борьбы с контентом, созданным нейросетями. Рост таких материалов стал настолько заметным , что редакторы решили действовать жёстко, чтобы сохранить качество и доверие к проекту.
20 марта сообщество Wikipedia утвердило правило , запрещающее использовать тексты, сгенерированные большими языковыми моделями, для написания и переработки статей. Решение приняли почти единогласно — 40 голосов против двух. Причиной назвали частые нарушения базовых принципов энциклопедии, включая точность и проверяемость информации.
При этом полный запрет не ввели. Редакторы по-прежнему могут применять нейросети для мелких правок собственных текстов, например, для улучшения стиля. Однако любые изменения требуют проверки человеком. В документе отдельно подчёркивают риск искажения смысла: модели способны менять формулировки так, что итоговый текст перестаёт соответствовать источникам.
Инициатор обсуждения, редактор Ильяс Леблё, отметил, что позиция внутри сообщества долго оставалась спорной . Ранее приняли более мягкое правило, запрещавшее только создание новых статей с помощью ИИ. Попытка ужесточить формулировки тогда провалилась, но за последние месяцы ситуация изменилась. По словам Леблё, поток жалоб на тексты, созданные нейросетями, вырос, а модераторы перестали справляться с нагрузкой.
Свободная энциклопедия, которую десятилетиями наполняли добровольцы, неожиданно оказалась на передовой борьбы с контентом, созданным нейросетями. Рост таких материалов стал настолько заметным , что редакторы решили действовать жёстко, чтобы сохранить качество и доверие к проекту.
20 марта сообщество Wikipedia утвердило правило , запрещающее использовать тексты, сгенерированные большими языковыми моделями, для написания и переработки статей. Решение приняли почти единогласно — 40 голосов против двух. Причиной назвали частые нарушения базовых принципов энциклопедии, включая точность и проверяемость информации.
При этом полный запрет не ввели. Редакторы по-прежнему могут применять нейросети для мелких правок собственных текстов, например, для улучшения стиля. Однако любые изменения требуют проверки человеком. В документе отдельно подчёркивают риск искажения смысла: модели способны менять формулировки так, что итоговый текст перестаёт соответствовать источникам.
Инициатор обсуждения, редактор Ильяс Леблё, отметил, что позиция внутри сообщества долго оставалась спорной . Ранее приняли более мягкое правило, запрещавшее только создание новых статей с помощью ИИ. Попытка ужесточить формулировки тогда провалилась, но за последние месяцы ситуация изменилась. По словам Леблё, поток жалоб на тексты, созданные нейросетями, вырос, а модераторы перестали справляться с нагрузкой.